fbprophet 预言家使用测试
https://blog.****.net/qq_23860475/article/details/81354467
原博在这里
import pandas as pd
import numpy as np
from fbprophet import Prophet
import matplotlib.pyplot as plt
df = pd.read_excel('example_wp_peyton_manning.xlsx')
df['y'] = np.log(df['y'])
playoffs = pd.DataFrame({
'holiday': 'playoff',
'ds': pd.to_datetime(['2008-01-13', '2009-01-03', '2010-01-16',
'2010-01-24', '2010-02-07', '2011-01-08',
'2013-01-12', '2014-01-12', '2014-01-19',
'2014-02-02', '2015-01-11', '2016-01-17',
'2016-01-24', '2016-02-07']),
'lower_window': 0,
'upper_window': 1,
})
superbowls = pd.DataFrame({
'holiday': 'superbowl',
'ds': pd.to_datetime(['2010-02-07', '2014-02-02', '2016-02-07']),
'lower_window': 0,
'upper_window': 1,
})
holidays = pd.concat((playoffs, superbowls)) # 季后赛和超级碗比赛特别日期
m = Prophet(holidays=holidays) # 指定节假日参数,其它参数以默认值进行训练
m.fit(df) # 对过去数据进行训练
future = m.make_future_dataframe(freq='D',periods=365) # 建立数据预测框架,数据粒度为天,预测步长为一年
forecast =m.predict(future)
m.plot(forecast) # 绘制预测效果图
plt.show()
m.plot_components(forecast) # 绘制成分趋势图
plt.show()
import pandas as pd
import numpy as np
from fbprophet import Prophet
import matplotlib.pyplot as plt
df = pd.read_excel('example_wp_peyton_manning.xlsx')
df['y'] = np.log(df['y'])
playoffs = pd.DataFrame({
'holiday': 'playoff',
'ds': pd.to_datetime(['2008-01-13', '2009-01-03', '2010-01-16',
'2010-01-24', '2010-02-07', '2011-01-08',
'2013-01-12', '2014-01-12', '2014-01-19',
'2014-02-02', '2015-01-11', '2016-01-17',
'2016-01-24', '2016-02-07']),
'lower_window': 0,
'upper_window': 1,
})
superbowls = pd.DataFrame({
'holiday': 'superbowl',
'ds': pd.to_datetime(['2010-02-07', '2014-02-02', '2016-02-07']),
'lower_window': 0,
'upper_window': 1,
})
holidays = pd.concat((playoffs, superbowls)) # 季后赛和超级碗比赛特别日期
m = Prophet(holidays=holidays) # 指定节假日参数,其它参数以默认值进行训练
m.fit(df) # 对过去数据进行训练
future = m.make_future_dataframe(freq='D',periods=365) # 建立数据预测框架,数据粒度为天,预测步长为一年
forecast =m.predict(future)
m.plot(forecast) # 绘制预测效果图
plt.show()
m.plot_components(forecast) # 绘制成分趋势图
plt.show()
原博上的代码,我这里用来测试一下功能。
因为图片不能显示,闪退,我改了一点代码
运行结果如下
Initial log joint probability = -8.22805
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
99 9754.87 0.00578108 1381.96 1 1 122
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
199 9782.15 0.00377384 666.677 1 1 229
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
299 9787.99 0.000453574 230.12 0.4708 1 341
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
399 9792.73 0.00082002 441.99 0.7395 0.7395 460
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
499 9796.1 0.00110105 162.415 1 1 575
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
576 9798.58 1.47631e-05 163.594 8.109e-08 0.001 716 LS failed, Hessian reset
599 9799.37 0.00529958 698.865 1 1 740
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
699 9801.22 2.23812e-05 63.8531 1 1 855
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
799 9801.78 0.00237766 463.774 1 1 972
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
831 9801.93 5.75156e-06 66.1005 6.997e-08 0.001 1053 LS failed, Hessian reset
899 9802.31 0.000111814 185.348 0.06377 0.6098 1134
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
926 9802.53 1.17466e-05 121.538 6.346e-08 0.001 1215 LS failed, Hessian reset
959 9802.76 8.95068e-06 96.06 7.093e-08 0.001 1304 LS failed, Hessian reset
999 9802.82 2.78071e-05 108.203 0.04923 0.9352 1355
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
1099 9803.99 0.00139863 302.943 1 1 1466
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
1199 9804.9 0.000434855 145.147 1 1 1589
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
1278 9805.48 1.79259e-05 173.491 1.337e-07 0.001 1711 LS failed, Hessian reset
1299 9805.66 0.00045454 147.286 1 1 1738
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
1399 9805.93 6.79296e-05 98.3221 1 1 1866
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
1473 9806.04 2.18264e-05 182.704 1.669e-07 0.001 1993 LS failed, Hessian reset
1499 9806.05 0.000101355 111.128 0.5452 1 2030
Iter log prob ||dx|| ||grad|| alpha alpha0 # evals Notes
1508 9806.06 5.64245e-06 75.287 6.175e-08 0.001 2084 LS failed, Hessian reset
1522 9806.06 7.78665e-07 52.5976 0.9696 0.2839 2107
Optimization terminated normally:
Convergence detected: relative gradient magnitude is below tolerance
Process finished with exit code 0
效果图如下
等过段时间,我缓缓在更新一波参数
我学习这个算法的时候其实是因为我老公忽悠我,说这个算法对时间序列表现优秀,但是我也在一些博客里看到了,只是比别的算法好一点而已,并不是特别优秀,我又在忧虑我公司那种刁钻的数据了,我试一下吧,再来更新一下。
----------------------------分割线--------------------------------------
我发现了一个有用的网址。
https://blog.****.net/wjskeepmaking/article/details/64905745
fbprophet目前仅支持以天为最小的时间粒度,下面这个网址介绍了修改代码,使得最小时间粒度变为小时。
https://blog.****.net/wjskeepmaking/article/details/65626872
----------------------------分割线--------------------------------------
现在是2020年1月20日
到今天为止,最小的时间粒度还是天。
我在2018年5月的时候买了一个新电脑,用Linux系统(Ubuntu18),安装真的很简单,pip就可以
----------------------------分割线--------------------------------------
我自己写了一段代码,用于练习,预测的是天池大赛,资金流的流入流出预测,不构建特征,单纯使用时间序列。
数据和需求见如下网址,用2013年7月1日到2014年8月31日的数据,来预测2014年9月1日到30日的数据(仅买入和赎出的总量)
https://tianchi.aliyun.com/competition/entrance/231573/information
# coding:utf-8
import pandas as pd
from fbprophet import Prophet
import matplotlib.pyplot as plt
data = pd.read_csv("total_ds_y.csv")
# 将时间列重命名为ds,将需要预测的列重命名为y
data = data.rename(columns={'report_date': 'ds', 'total_redeem_amt': 'y'})
ds = data.get('ds')
y = data.get('y')
# 数据有多列仅拼接这两列
train_data = pd.concat((ds, y), axis=1)
holidays = pd.DataFrame({
# 可以随意命名,这里是因为可以添加多个不一样的holiday
'holiday': 'holiday',
# 节假日的日期
'ds': pd.to_datetime(['2013-09-19', '2013-09-20', '2013-09-21',
'2013-10-01', '2013-10-02', '2013-10-03',
'2013-10-04', '2013-10-05', '2013-10-06',
'2013-10-07', '2014-01-01', '2014-01-31',
'2014-02-01', '2014-02-02', '2014-02-03',
'2014-02-04', '2014-02-05', '2014-02-06',
'2014-04-05', '2014-04-06', '2014-04-07',
'2014-05-01', '2014-05-02', '2014-05-03',
'2014-05-31', '2014-06-01', '2014-06-02',
'2013-11-11']),
# 最小值为0(不是节假日),最大值为1(是节假日)
'lower_window': 0,
'upper_window': 1,
})
m = Prophet(holidays=holidays)
m.fit(data)
# 预测的频率(天D,或者月M),时间长度30,是否包含历史数据
future = m.make_future_dataframe(freq='D', periods=30, include_history=False) # 建立数据预测框架,数据粒度为天,预测步长为一年
# 预测的结果,包含多种成分,最后一列即yhat列为最终的预测结果
forecast = m.predict(future)
# print(forecast.ds)
m.plot(forecast) # 绘制预测效果图
plt.show()
m.plot_components(forecast) # 绘制成分趋势图
plt.show()
# 保存结果
forecast.to_csv("forecast.csv")
预测效果一般,仅做练习用。
上一篇: 滚动视差css
下一篇: 开放omeny 红梦笔记
推荐阅读
-
35 岁实现财务*,腾讯程序员手握2300万提前退休?-1000万房产、1000万腾讯股票、加上300万的现金,一共2300万的财产。有网友算了一笔账,假设1000万的房产用于自住,剩下1300万资产按照平均税后20-50万不等进行计算,大约花上26-60年左右的时间才能赚到这笔钱。也就是说,普通人可能奋斗一辈子,才能赚到这笔钱。在很多人还在为中年危机而惶惶不可终日的时候,有的人的35岁,就已经安全着陆,试问哪个打工人不羡慕?但问题是有这样财富积累必然有像样的实力做靠山。没有人可以不劳而获。 看到这里,肯定有人说,那么对于普通人来说,卷可能真就成了唯一的出路。但是卷也有轻松的卷,“偷懒”的卷法,对于程序员而言,刨除掉一时无法改掉的开会传统占用的大部分时间,如何把有限的时间和精力放在真正重要的架构设计、需求设计上,而不是重复的造*,编码、改bug、手动测试。因此在科技改变生活的今天,学会使用AI工具成为程序员们的必备技能。 以全栈式全自动的软件开发工具飞算SoFlu软件机器人为例,作为全球首款面向微服务架构设计和最佳实践的软件机器人,SoFlu软件机器人改变了原来手工编码的作业模式,通过可视化拖拽方式以及参数配置就能实现等同于编写复杂代码的业务逻辑,在设计业务逻辑时就完成了微服务应用开发,做到“业务即图,图即代码”,实现“软件开发,十倍提效”。 而作为飞算SoFlu软件机器人的一个重要组成部分,FuncGPT(慧函数)支持所有类型函数创建。通过自然语言描述Java函数需求,实时生成高质量、高可读性的Java函数代码。生成代码可直接复制到IDEA,或一键导入Java全自动开发工具函数库。 FuncGPT(慧函数)具有五大核心能力: ● 自然语言:通过自然语言即可生成函数,降低软件开发门槛。 ● 秒级函数开发:全自动秒级开发函数,秒级完成,效率千倍提升。 ● 一站式函数开发应用:函数生成即可直接应用,效率、安全有保障。 ● 质量可靠:生成的函数代码符合业界规范、具备良好的可读性,符合最优解。 ● 灵活生成:可以根据开发人员的具体需求生成并支持调整和修改。 以“将文件流转换为File对象”这个需求为例,以下是FuncGPT(慧函数)秒级生成的代码: / 类名:FileConverter // 函数名:convertStreamToFile // 函数功能:将文件流转换为File对象 // POM依赖包:无 import java.io.File; import java.io.FileOutputStream; import java.io.IOException; import java.io.InputStream; public class FileConverter { /** * 将文件流转换为File对象 * @param inputStream 文件流 * @param filePath 文件路径 * @param fileName 文件名 * @return 转换后的File对象 * @throws IOException 如果发生I/O异常 */ public static File convertStreamToFile(InputStream inputStream, String filePath, String fileName) throws IOException { File file = new File(filePath + File.separator + fileName); // 创建File对象 try (FileOutputStream outputStream = new FileOutputStream(file)) { // 创建文件输出流 byte buffer = new byte[1024]; int bytesRead; while ((bytesRead = inputStream.read(buffer)) != -1) { // 从文件流读取数据并写入文件 outputStream.write(buffer, 0, bytesRead); } } return file; // 返回转换后的File对象 } } // 函数示例 // 将文件流转换为File对象示例 // 入参:inputStream,文件流 // 入参:filePath,文件路径 // 入参:fileName,文件名 // 出参:file,转换后的File对象 // 调用示例: // InputStream inputStream = new FileInputStream("example.txt"); // String filePath = "C:\\Users\\User\\Documents"; // String fileName = "example.txt"; // File file = FileConverter.convertStreamToFile(inputStream, filePath, fileName); // System.out.println(file.getAbsolutePath); // 输出结果:例如,将文件流转换为File对象后,文件的绝对路径为:C:\Users\User\Documents\example.txt // 则输出结果为:C:\Users\User\Documents\example.txt 通过分析,不难发现以上代码:
-
tcp] 安装和使用 TCP 测试工具 tcping安装和使用 TCP 测试工具 tcping
-
如何在数据中心测试中使用仪表构建 InfiniBand 流量
-
使用 Python 进行渗透测试 - 版本:Python3.X
-
RSemaphore、Redisson 分布式信号器各种使用场景测试
-
详细的 Webbench 使用网络性能压力测试
-
使用 PRET 控制远程打印机测试 - 安装
-
epoll简介及触发模式(accept、read、send)-epoll的简单介绍 epoll在LT和ET模式下的读写方式 一、epoll的接口非常简单,一共就三个函数:1. int epoll_create(int size);创建一个epoll的句柄,size用来告诉内核这个监听的数目一共有多大。这个参数不同于select中的第一个参数,给出最大监听的fd+1的值。需要注意的是,当创建好epoll句柄后,它就是会占用一个fd值,在linux下如果查看/proc/进程id/fd/,是能够看到这个fd的,所以在使用完epoll后,必须调用close关闭,否则可能导致fd被耗尽。2. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);epoll的事件注册函数,它不同与select是在监听事件时告诉内核要监听什么类型的事件,而是在这里先注册要监听的事件类型。第一个参数是epoll_create的返回值,第二个参数表示动作,用三个宏来表示:EPOLL_CTL_ADD:注册新的fd到epfd中;EPOLL_CTL_MOD:修改已经注册的fd的监听事件;EPOLL_CTL_DEL:从epfd中删除一个fd;第三个参数是需要监听的fd,第四个参数是告诉内核需要监听什么事,struct epoll_event结构如下:struct epoll_event { __uint32_t events; /* Epoll events */ epoll_data_t data; /* User data variable */};events可以是以下几个宏的集合:EPOLLIN :表示对应的文件描述符可以读(包括对端SOCKET正常关闭); EPOLLIN事件:EPOLLIN事件则只有当对端有数据写入时才会触发,所以触发一次后需要不断读取所有数据直到读完EAGAIN为止。否则剩下的数据只有在下次对端有写入时才能一起取出来了。现在明白为什么说epoll必须要求异步socket了吧?如果同步socket,而且要求读完所有数据,那么最终就会在堵死在阻塞里。 EPOLLOUT:表示对应的文件描述符可以写; EPOLLOUT事件:EPOLLOUT事件只有在连接时触发一次,表示可写,其他时候想要触发,那要先准备好下面条件:1.某次write,写满了发送缓冲区,返回错误码为EAGAIN。2.对端读取了一些数据,又重新可写了,此时会触发EPOLLOUT。简单地说:EPOLLOUT事件只有在不可写到可写的转变时刻,才会触发一次,所以叫边缘触发,这叫法没错的!其实,如果真的想强制触发一次,也是有办法的,直接调用epoll_ctl重新设置一下event就可以了,event跟原来的设置一模一样都行(但必须包含EPOLLOUT),关键是重新设置,就会马上触发一次EPOLLOUT事件。1. 缓冲区由满变空.2.同时注册EPOLLIN | EPOLLOUT事件,也会触发一次EPOLLOUT事件这个两个也会触发EPOLLOUT事件 EPOLLPRI:表示对应的文件描述符有紧急的数据可读(这里应该表示有带外数据到来);EPOLLERR:表示对应的文件描述符发生错误;EPOLLHUP:表示对应的文件描述符被挂断;EPOLLET: 将EPOLL设为边缘触发(Edge Triggered)模式,这是相对于水平触发(Level Triggered)来说的。EPOLLONESHOT:只监听一次事件,当监听完这次事件之后,如果还需要继续监听这个socket的话,需要再次把这个socket加入到EPOLL队列里3. int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);等待事件的产生,类似于select调用。参数events用来从内核得到事件的集合,maxevents告之内核这个events有多大,这个maxevents的值不能大于创建epoll_create时的size,参数timeout是超时时间(毫秒,0会立即返回,-1将不确定,也有说法说是永久阻塞)。该函数返回需要处理的事件数目,如返回0表示已超时。-------------------------------------------------------------------------------------------- 从man手册中,得到ET和LT的具体描述如下EPOLL事件有两种模型:Edge Triggered (ET)Level Triggered (LT)假如有这样一个例子:1. 我们已经把一个用来从管道中读取数据的文件句柄(RFD)添加到epoll描述符2. 这个时候从管道的另一端被写入了2KB的数据3. 调用epoll_wait(2),并且它会返回RFD,说明它已经准备好读取操作4. 然后我们读取了1KB的数据5. 调用epoll_wait(2)......Edge Triggered 工作模式:如果我们在第1步将RFD添加到epoll描述符的时候使用了EPOLLET标志,那么在第5步调用epoll_wait(2)之后将有可能会挂起,因为剩余的数据还存在于文件的输入缓冲区内,而且数据发出端还在等待一个针对已经发出数据的反馈信息。只有在监视的文件句柄上发生了某个事件的时候 ET 工作模式才会汇报事件。因此在第5步的时候,调用者可能会放弃等待仍在存在于文件输入缓冲区内的剩余数据。在上面的例子中,会有一个事件产生在RFD句柄上,因为在第2步执行了一个写操作,然后,事件将会在第3步被销毁。因为第4步的读取操作没有读空文件输入缓冲区内的数据,因此我们在第5步调用 epoll_wait(2)完成后,是否挂起是不确定的。epoll工作在ET模式的时候,必须使用非阻塞套接口,以避免由于一个文件句柄的阻塞读/阻塞写操作把处理多个文件描述符的任务饿死。最好以下面的方式调用ET模式的epoll接口,在后面会介绍避免可能的缺陷。 i 基于非阻塞文件句柄 ii 只有当read(2)或者write(2)返回EAGAIN时才需要挂起,等待。但这并不是说每次read时都需要循环读,直到读到产生一个EAGAIN才认为此次事件处理完成,当read返回的读到的数据长度小于请求的数据长度时,就可以确定此时缓冲中已没有数据了,也就可以认为此事读事件已处理完成。Level Triggered 工作模式相反的,以LT方式调用epoll接口的时候,它就相当于一个速度比较快的poll(2),并且无论后面的数据是否被使用,因此他们具有同样的职能。因为即使使用ET模式的epoll,在收到多个chunk的数据的时候仍然会产生多个事件。调用者可以设定EPOLLONESHOT标志,在 epoll_wait(2)收到事件后epoll会与事件关联的文件句柄从epoll描述符中禁止掉。因此当EPOLLONESHOT设定后,使用带有 EPOLL_CTL_MOD标志的epoll_ctl(2)处理文件句柄就成为调用者必须作的事情。然后详细解释ET, LT:LT(level triggered)是缺省的工作方式,并且同时支持block和no-block socket.在这种做法中,内核告诉你一个文件描述符是否就绪了,然后你可以对这个就绪的fd进行IO操作。如果你不作任何操作,内核还是会继续通知你的,所以,这种模式编程出错误可能性要小一点。传统的select/poll都是这种模型的代表.ET(edge-triggered)是高速工作方式,只支持no-block socket。在这种模式下,当描述符从未就绪变为就绪时,内核通过epoll告诉你。然后它会假设你知道文件描述符已经就绪,并且不会再为那个文件描述符发送更多的就绪通知,直到你做了某些操作导致那个文件描述符不再为就绪状态了(比如,你在发送,接收或者接收请求,或者发送接收的数据少于一定量时导致了一个EWOULDBLOCK 错误)。但是请注意,如果一直不对这个fd作IO操作(从而导致它再次变成未就绪),内核不会发送更多的通知(only once),不过在TCP协议中,ET模式的加速效用仍需要更多的benchmark确认(这句话不理解)。在许多测试中我们会看到如果没有大量的idle -connection或者dead-connection,epoll的效率并不会比select/poll高很多,但是当我们遇到大量的idle- connection(例如WAN环境中存在大量的慢速连接),就会发现epoll的效率大大高于select/poll。(未测试)另外,当使用epoll的ET模型来工作时,当产生了一个EPOLLIN事件后,读数据的时候需要考虑的是当recv返回的大小如果等于请求的大小,那么很有可能是缓冲区还有数据未读完,也意味着该次事件还没有处理完,所以还需要再次读取: 这里只是说明思路(参考《UNIX网络编程》) while(rs) {buflen = recv(activeevents[i].data.fd, buf, sizeof(buf), 0);if(buflen < 0){// 由于是非阻塞的模式,所以当errno为EAGAIN时,表示当前缓冲区已无数据可读// 在这里就当作是该次事件已处理处.if(errno == EAGAIN)break; else return; }else if(buflen == 0) { // 这里表示对端的socket已正常关闭. } if(buflen == sizeof(buf) rs = 1; // 需要再次读取 else rs = 0; } 还有,假如发送端流量大于接收端的流量(意思是epoll所在的程序读比转发的socket要快),由于是非阻塞的socket,那么send函数虽然返回,但实际缓冲区的数据并未真正发给接收端,这样不断的读和发,当缓冲区满后会产生EAGAIN错误(参考man send),同时,不理会这次请求发送的数据.所以,需要封装socket_send的函数用来处理这种情况,该函数会尽量将数据写完再返回,返回-1表示出错。在socket_send内部,当写缓冲已满(send返回-1,且errno为EAGAIN),那么会等待后再重试.这种方式并不很完美,在理论上可能会长时间的阻塞在socket_send内部,但暂没有更好的办法. ssize_t socket_send(int sockfd, const char* buffer, size_t buflen) { ssize_t tmp; size_t total = buflen; const char *p = buffer; while(1) { tmp = send(sockfd, p, total, 0); if(tmp < 0) { // 当send收到信号时,可以继续写,但这里返回-1. if(errno == EINTR) return -1; // 当socket是非阻塞时,如返回此错误,表示写缓冲队列已满, // 在这里做延时后再重试. if(errno == EAGAIN) { usleep(1000); continue; } return -1; } if((size_t)tmp == total) return buflen; total -= tmp; p += tmp; } return tmp; } 二、epoll在LT和ET模式下的读写方式 在一个非阻塞的socket上调用read/write函数, 返回EAGAIN或者EWOULDBLOCK(注: EAGAIN就是EWOULDBLOCK) 从字面上看, 意思是: * EAGAIN: 再试一次 * EWOULDBLOCK: 如果这是一个阻塞socket, 操作将被block * perror输出: Resource temporarily unavailable 总结: 这个错误表示资源暂时不够, 可能read时, 读缓冲区没有数据, 或者, write时,写缓冲区满了 。 遇到这种情况, 如果是阻塞socket, read/write就要阻塞掉。 而如果是非阻塞socket, read/write立即返回-1, 同 时errno设置为EAGAIN. 所以, 对于阻塞socket, read/write返回-1代表网络出错了. 但对于非阻塞socket, read/write返回-1不一定网络真的出错了. 可能是Resource temporarily unavailable. 这时你应该再试, 直到Resource available. 综上, 对于non-blocking的socket, 正确的读写操作为: 读: 忽略掉errno = EAGAIN的错误, 下次继续读 写: 忽略掉errno = EAGAIN的错误, 下次继续写 对于select和epoll的LT模式, 这种读写方式是没有问题的. 但对于epoll的ET模式, 这种方式还有漏洞. epoll的两种模式 LT 和 ET
-
如何使用 CANoe 进行 LINstress 测试
-
软件测试|为什么要使用 Spring Boot?