加速你的Python编程:DASK是什么?
以下文章来源于NVIDIA英伟达,作者NVIDIA英伟达。
Dask 是一个灵活的开源库,适用于 Python 中的并行和分布式计算。
什么是 DASK ?
Dask 是一个开源库,旨在为现有 Python 堆栈提供并行性。Dask 与 Python 库(如 NumPy 数组、Pandas DataFrame 和 scikit-learn)集成,无需学习新的库或语言,即可跨多个核心、处理器和计算机实现并行执行。
Dask 由两部分组成:
- 用于并行列表、数组和 DataFrame 的 API 集合,可原生扩展 Numpy 、NumPy 、Pandas 和 scikit-learn ,以在大于内存环境或分布式环境中运行。Dask 集合是底层库的并行集合(例如,Dask 数组由 Numpy 数组组成)并运行在任务调度程序之上。
- 一个任务调度程序,用于构建任务图形,协调、调度和监控针对跨 CPU 核心和计算机的交互式工作负载优化的任务。
Dask 包含三个并行集合,即 DataFrame 、Bag 和数组,每个均可自动使用在 RAM 和磁盘之间分区的数据,以及根据资源可用性分布在集群中多个节点之间的数据。对于可并行但不适合 Dask 数组或 DataFrame 等高级抽象的问题,有一个“延迟”函数使用 Python 装饰器修改函数,以便它们延迟运行。这意味着执行被延迟,并且函数及其参数被放置到任务图形中。
Dask 的任务调度程序可以扩展至拥有数千个节点的集群,其算法已在一些全球最大的超级计算机上进行测试。其任务调度界面可针对特定作业进行定制。Dask 可提供低用度、低延迟和极简的序列化,从而加快速度。
在分布式场景中,一个调度程序负责协调许多工作人员,将计算移动到正确的工作人员,以保持连续、无阻塞的对话。多个用户可能共享同一系统。此方法适用于 Hadoop HDFS 文件系统以及云对象存储(例如 Amazon 的 S3 存储)。
该单机调度程序针对大于内存的使用量进行了优化,并跨多个线程和处理器划分任务。它采用低用度方法,每个任务大约占用 50 微秒。
为何选择 DASK?
Python 的用户友好型高级编程语言和 Python 库(如 NumPy 、Pandas 和 scikit-learn)已经得到数据科学家的广泛采用。
这些库是在大数据用例变得如此普遍之前开发的,没有强大的并行解决方案。Python 是单核计算的首选,但用户不得不为多核心或多计算机并行寻找其他解决方案。这会中断用户体验,还会让用户感到非常沮丧。
过去五年里,对 Python 工作负载扩展的需求不断增加,这导致了 Dask 的自然增长。Dask 是一种易于安装、快速配置的方法,可以加速 Python 中的数据分析,无需开发者升级其硬件基础设施或切换到其他编程语言。启动 Dask 作业所使用的语法与其他 Python 操作相同,因此可将其集成,几乎不需要重新写代码。
此外,由于拥有强大的网络建设堆栈,Python 受到网络开发者的青睐,Dask 可利用该堆栈构建一个灵活、功能强大的分布式计算系统,能够扩展各种工作负载。Dask 的灵活性使其能够从其他大数据解决方案(如 Hadoop 或 Apache Spark)中脱颖而出,而且它对本机代码的支持使得 Python 用户和 C/C++/CUDA 开发者能够轻松使用。
Dask 已被 Python 开发者社区迅速采用,并且随着 Numpy 和 Pandas 的普及而增长,这为 Python 提供了重要的扩展,可以解决特殊分析和数学计算问题。
Dask 的扩展性远优于 Pandas,尤其适用于易于并行的任务,例如跨越数千个电子表格对数据进行排序。加速器可以将数百个 Pandas DataFrame 加载到内存中,并通过单个抽象进行协调。
如今, Dask 由一个开发者社区管理,该社区涵盖数十家机构和 PyData 项目,例如 Pandas 、Jupyter 和 Scikit-Learn 。Dask 与这些热门工具的集成促使采用率迅速提高,在需要 Pythonic 大数据工具的开发者中采用率约达 20%。
为何 DASK 在应用 GPU 后表现更出色
在架构方面,CPU 仅由几个具有大缓存内存的核心组成,一次只可以处理几个软件线程。相比之下,GPU 由数百个核心组成,可以同时处理数千个线程。
GPU 可提供曾经深奥难测的并行计算技术。
| Dask + NVIDIA:推动可访问的加速分析
NVIDIA 了解 GPU 为数据分析提供的强大性能。因此,NVIDIA 致力于帮助数据科学、机器学习和人工智能从业者从数据中获得更大价值。鉴于 Dask 的性能和可访问性,NVIDIA 开始将其用于 RAPIDS 项目,目标是将加速数据分析工作负载横向扩展到多个 GPU 和基于 GPU 的系统。
得益于可访问的 Python 界面和超越数据科学的通用性,Dask 发展到整个 NVIDIA 的其他项目,成为从解析 JSON 到管理端到端深度学习工作流程等新应用程序的不二选择。以下是 NVIDIA 使用 Dask 正在进行的许多项目和协作中的几个:
| RAPIDS
RAPIDS 是一套开源软件库和 API,用于完全在 GPU 上执行数据科学流程,通常可以将训练时间从几天缩短至几分钟。RAPIDS 基于 NVIDIA® CUDA-X AI™ 构建,并结合了图形、机器学习、高性能计算 (HPC)等方面的多年开发经验。
虽然 CUDA-X 功能强大,但大多数数据分析从业者更喜欢使用 Python 工具集(例如前面提到的 NumPy、Pandas 和 Scikit-learn)来试验、构建和训练模型。Dask 是 RAPIDS 生态系统的关键组件,使数据从业者能够更轻松地通过基于 Python 的舒适用户体验利用加速计算。
| NVTabular
NVTabular 是一个特征工程和预处理库,旨在快速轻松地处理 TB 级表格数据集。它基于 Dask-cuDF 库构建,可提供高级抽象层,从而简化大规模高性能 ETL 运算的创建。NVTabular 能够利用 RAPIDS 和 Dask 扩展至数千个 GPU ,消除等待 ETL 进程完成这一瓶颈。
| BlazingSQL
BlazingSQL 是一个在 GPU 上运行的速度超快的分布式 SQL 引擎,也是基于 Dask-cuDF 构建的。它使数据科学家能够轻松将大规模数据湖与 GPU 加速的分析连接在一起。借助几行代码,从业者可以直接查询原始文件格式(例如 HDFS 和 AWS S3 等数据湖中的 CSV 和 Apache Parquet),并直接将结果传输至 GPU 显存。
BlazingSQL 背后的公司 BlazingDB Inc 是 RAPIDS 的核心贡献者,并与 NVIDIA 进行了大量合作。
| cuStreamz
在 NVIDIA 内部,我们正在使用 Dask 为我们的部分产品和业务运营提供动力。我们使用 Streamz、Dask 和 RAPIDS 构建了 cuStreamz ,这是一个 100% 使用原生 Python 的加速流数据平台。借助 cuStreamz,我们能够针对某些要求严苛的应用程序(例如 GeForce NOW、NVIDIA GPU Cloud 和 NVIDIA Drive SIM)进行实时分析。虽然这是一个新兴项目,但与使用支持 Dask 的 cuStreamz 的其他流数据平台相比,TCO 已显著降低。
DASK 用例
Dask 能够高效处理数百 TB 的数据,因此成为将并行性添加到 ML 处理、实现大型多维数据集分析的更快执行以及加速和扩展数据科学制作流程或工作流程的强大工具。因此,它可以用于 HPC 、金融服务、网络安全和零售行业的各种用例。例如,Dask 与 Numpy 工作流程一起使用,在地球科学、卫星图像、基因组学、生物医学应用程序和机器学习算法中实现多维数据分析。
借助 Pandas DataFrame ,Dask 可以在时间序列分析、商业智能和数据准备方面启用应用程序。Dask-ML 是一个用于分布式和并行机器学习的库,可与 Scikit-Learn 和 XGBoost 一起使用,以针对大型模型和数据集创建可扩展的训练和预测。开发者可以使用标准的 Dask 工作流程准备和设置数据,然后将数据交给 XGBoost 或 Tensorflow 。
DASK + RAPIDS:在企业中实现创新
许多公司正在同时采用 Dask 和 RAPIDS 来扩展某些重要的业务。NVIDIA 的一些大型合作伙伴都是各自行业的领导者,他们正在使用 Dask 和 RAPIDS 来为数据分析提供支持。以下是最近一些令人兴奋的例子:
| Capital One
Capital One 的使命是“变革银行业务”,投入巨资进行大规模数据分析,为客户提供更好的产品和服务,并提高整个企业的运营效率。凭借一大群对 Python 情有独钟的数据科学家,Capital One 使用 Dask 和 RAPIDS 来扩展和加速传统上难以并行化的 Python 工作负载,并显著减少大数据分析的学习曲线。
| 美国国家能源研究科学计算中心 (NERSC)
NERSC 致力于为基础科学研究提供计算资源和专业知识,是通过计算加速科学发现的世界领导者。该使命的一部分是让研究人员能够使用超级计算来推动科学探索。借助 Dask 和 RAPIDS ,超级计算背景有限的研究人员和科学家可以轻松访问其新的超级计算机“Perlmutter”的惊人功能。他们利用 Dask 创建一个熟悉的界面,让科学家掌握超级计算能力,推动各领域取得潜在突破。
| 沃尔玛实验室
作为零售领域巨头,沃尔玛利用海量数据集更好地服务客户、预测产品需求并提高内部效率。借助大规模数据分析来实现这些目标,沃尔玛实验室转而使用 Dask 、XGBoost 和 RAPIDS,将训练时间缩短 100 倍,实现快速模型迭代和准确性提升,从而进一步发展业务。借助 Dask ,数据科学家可以利用 NVIDIA GPU 的能力解决他们最棘手的问题。
DASK 在企业中的应用:日益壮大的市场
随着其在大型机构中不断取得成功,越来越多的公司开始满足企业对 Dask 产品和服务的需求。以下是一些正在满足企业 Dask 需求的公司,它们表明市场已进入成熟期:
| Anaconda
像 SciPy 生态系统的大部分内容一样,Dask 从 Anaconda Inc 开始,在那里受到关注并发展为更大的开源社区。随着社区的发展和企业开始采用 Dask ,Anaconda 开始提供咨询服务、培训和开源支持,以简化企业的使用。作为开源软件的主要支持者,Anaconda 还聘请了许多 Dask 维护人员,为企业客户提供对该软件的深入理解。
| Coiled
由 Dask 维护人员(例如 Dask 项目主管和前 NVIDIA 员工 Matthew Rocklin)创立的 Coiled 提供围绕 Dask 的托管解决方案,以在云和企业环境中轻松运行,还提供帮助优化机构内 Python 分析的企业支持。他们公开托管的托管部署产品为同时使用 Dask 和 RAPIDS 提供了一种强大而直观的方式。
| Quansight
Quansight 致力于帮助企业从数据中创造价值,提供各种服务,推动各行各业的数据分析。与 Anaconda 类似,Quansight 为使用 Dask 的企业提供咨询服务和培训。借助 PyData 和 NumFOCUS 生态系统,Quansight 还为需要在开源软件中增强功能或修复问题的企业提供支持。
为何 DASK 对数据科学团队很重要
这一切都与加速和效率有关。开发交互式算法的开发者希望快速执行,以便对输入和变量进行修补。在运行大型数据集时,内存有限的台式机和笔记本电脑可能会让人感到沮丧。Dask 功能开箱即用,即使在单个 CPU 上也可以提高处理效率。当应用于集群时,通常可以通过单一命令在多个 CPU 和 GPU 之间执行运算,将处理时间缩短 90% 。Dask 可以启用非常庞大的训练数据集,这些数据集通常用于机器学习,可在无法支持这些数据集的环境中运行。
Dask 拥有低代码结构、低用度执行模型,并且可轻松集成到 Python、Pandas 和 Numpy 工作流程中,因此 Dask 正迅速成为每个 Python 开发者的必备工具。
推荐阅读
-
epoll简介及触发模式(accept、read、send)-epoll的简单介绍 epoll在LT和ET模式下的读写方式 一、epoll的接口非常简单,一共就三个函数:1. int epoll_create(int size);创建一个epoll的句柄,size用来告诉内核这个监听的数目一共有多大。这个参数不同于select中的第一个参数,给出最大监听的fd+1的值。需要注意的是,当创建好epoll句柄后,它就是会占用一个fd值,在linux下如果查看/proc/进程id/fd/,是能够看到这个fd的,所以在使用完epoll后,必须调用close关闭,否则可能导致fd被耗尽。2. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);epoll的事件注册函数,它不同与select是在监听事件时告诉内核要监听什么类型的事件,而是在这里先注册要监听的事件类型。第一个参数是epoll_create的返回值,第二个参数表示动作,用三个宏来表示:EPOLL_CTL_ADD:注册新的fd到epfd中;EPOLL_CTL_MOD:修改已经注册的fd的监听事件;EPOLL_CTL_DEL:从epfd中删除一个fd;第三个参数是需要监听的fd,第四个参数是告诉内核需要监听什么事,struct epoll_event结构如下:struct epoll_event { __uint32_t events; /* Epoll events */ epoll_data_t data; /* User data variable */};events可以是以下几个宏的集合:EPOLLIN :表示对应的文件描述符可以读(包括对端SOCKET正常关闭); EPOLLIN事件:EPOLLIN事件则只有当对端有数据写入时才会触发,所以触发一次后需要不断读取所有数据直到读完EAGAIN为止。否则剩下的数据只有在下次对端有写入时才能一起取出来了。现在明白为什么说epoll必须要求异步socket了吧?如果同步socket,而且要求读完所有数据,那么最终就会在堵死在阻塞里。 EPOLLOUT:表示对应的文件描述符可以写; EPOLLOUT事件:EPOLLOUT事件只有在连接时触发一次,表示可写,其他时候想要触发,那要先准备好下面条件:1.某次write,写满了发送缓冲区,返回错误码为EAGAIN。2.对端读取了一些数据,又重新可写了,此时会触发EPOLLOUT。简单地说:EPOLLOUT事件只有在不可写到可写的转变时刻,才会触发一次,所以叫边缘触发,这叫法没错的!其实,如果真的想强制触发一次,也是有办法的,直接调用epoll_ctl重新设置一下event就可以了,event跟原来的设置一模一样都行(但必须包含EPOLLOUT),关键是重新设置,就会马上触发一次EPOLLOUT事件。1. 缓冲区由满变空.2.同时注册EPOLLIN | EPOLLOUT事件,也会触发一次EPOLLOUT事件这个两个也会触发EPOLLOUT事件 EPOLLPRI:表示对应的文件描述符有紧急的数据可读(这里应该表示有带外数据到来);EPOLLERR:表示对应的文件描述符发生错误;EPOLLHUP:表示对应的文件描述符被挂断;EPOLLET: 将EPOLL设为边缘触发(Edge Triggered)模式,这是相对于水平触发(Level Triggered)来说的。EPOLLONESHOT:只监听一次事件,当监听完这次事件之后,如果还需要继续监听这个socket的话,需要再次把这个socket加入到EPOLL队列里3. int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);等待事件的产生,类似于select调用。参数events用来从内核得到事件的集合,maxevents告之内核这个events有多大,这个maxevents的值不能大于创建epoll_create时的size,参数timeout是超时时间(毫秒,0会立即返回,-1将不确定,也有说法说是永久阻塞)。该函数返回需要处理的事件数目,如返回0表示已超时。-------------------------------------------------------------------------------------------- 从man手册中,得到ET和LT的具体描述如下EPOLL事件有两种模型:Edge Triggered (ET)Level Triggered (LT)假如有这样一个例子:1. 我们已经把一个用来从管道中读取数据的文件句柄(RFD)添加到epoll描述符2. 这个时候从管道的另一端被写入了2KB的数据3. 调用epoll_wait(2),并且它会返回RFD,说明它已经准备好读取操作4. 然后我们读取了1KB的数据5. 调用epoll_wait(2)......Edge Triggered 工作模式:如果我们在第1步将RFD添加到epoll描述符的时候使用了EPOLLET标志,那么在第5步调用epoll_wait(2)之后将有可能会挂起,因为剩余的数据还存在于文件的输入缓冲区内,而且数据发出端还在等待一个针对已经发出数据的反馈信息。只有在监视的文件句柄上发生了某个事件的时候 ET 工作模式才会汇报事件。因此在第5步的时候,调用者可能会放弃等待仍在存在于文件输入缓冲区内的剩余数据。在上面的例子中,会有一个事件产生在RFD句柄上,因为在第2步执行了一个写操作,然后,事件将会在第3步被销毁。因为第4步的读取操作没有读空文件输入缓冲区内的数据,因此我们在第5步调用 epoll_wait(2)完成后,是否挂起是不确定的。epoll工作在ET模式的时候,必须使用非阻塞套接口,以避免由于一个文件句柄的阻塞读/阻塞写操作把处理多个文件描述符的任务饿死。最好以下面的方式调用ET模式的epoll接口,在后面会介绍避免可能的缺陷。 i 基于非阻塞文件句柄 ii 只有当read(2)或者write(2)返回EAGAIN时才需要挂起,等待。但这并不是说每次read时都需要循环读,直到读到产生一个EAGAIN才认为此次事件处理完成,当read返回的读到的数据长度小于请求的数据长度时,就可以确定此时缓冲中已没有数据了,也就可以认为此事读事件已处理完成。Level Triggered 工作模式相反的,以LT方式调用epoll接口的时候,它就相当于一个速度比较快的poll(2),并且无论后面的数据是否被使用,因此他们具有同样的职能。因为即使使用ET模式的epoll,在收到多个chunk的数据的时候仍然会产生多个事件。调用者可以设定EPOLLONESHOT标志,在 epoll_wait(2)收到事件后epoll会与事件关联的文件句柄从epoll描述符中禁止掉。因此当EPOLLONESHOT设定后,使用带有 EPOLL_CTL_MOD标志的epoll_ctl(2)处理文件句柄就成为调用者必须作的事情。然后详细解释ET, LT:LT(level triggered)是缺省的工作方式,并且同时支持block和no-block socket.在这种做法中,内核告诉你一个文件描述符是否就绪了,然后你可以对这个就绪的fd进行IO操作。如果你不作任何操作,内核还是会继续通知你的,所以,这种模式编程出错误可能性要小一点。传统的select/poll都是这种模型的代表.ET(edge-triggered)是高速工作方式,只支持no-block socket。在这种模式下,当描述符从未就绪变为就绪时,内核通过epoll告诉你。然后它会假设你知道文件描述符已经就绪,并且不会再为那个文件描述符发送更多的就绪通知,直到你做了某些操作导致那个文件描述符不再为就绪状态了(比如,你在发送,接收或者接收请求,或者发送接收的数据少于一定量时导致了一个EWOULDBLOCK 错误)。但是请注意,如果一直不对这个fd作IO操作(从而导致它再次变成未就绪),内核不会发送更多的通知(only once),不过在TCP协议中,ET模式的加速效用仍需要更多的benchmark确认(这句话不理解)。在许多测试中我们会看到如果没有大量的idle -connection或者dead-connection,epoll的效率并不会比select/poll高很多,但是当我们遇到大量的idle- connection(例如WAN环境中存在大量的慢速连接),就会发现epoll的效率大大高于select/poll。(未测试)另外,当使用epoll的ET模型来工作时,当产生了一个EPOLLIN事件后,读数据的时候需要考虑的是当recv返回的大小如果等于请求的大小,那么很有可能是缓冲区还有数据未读完,也意味着该次事件还没有处理完,所以还需要再次读取: 这里只是说明思路(参考《UNIX网络编程》) while(rs) {buflen = recv(activeevents[i].data.fd, buf, sizeof(buf), 0);if(buflen < 0){// 由于是非阻塞的模式,所以当errno为EAGAIN时,表示当前缓冲区已无数据可读// 在这里就当作是该次事件已处理处.if(errno == EAGAIN)break; else return; }else if(buflen == 0) { // 这里表示对端的socket已正常关闭. } if(buflen == sizeof(buf) rs = 1; // 需要再次读取 else rs = 0; } 还有,假如发送端流量大于接收端的流量(意思是epoll所在的程序读比转发的socket要快),由于是非阻塞的socket,那么send函数虽然返回,但实际缓冲区的数据并未真正发给接收端,这样不断的读和发,当缓冲区满后会产生EAGAIN错误(参考man send),同时,不理会这次请求发送的数据.所以,需要封装socket_send的函数用来处理这种情况,该函数会尽量将数据写完再返回,返回-1表示出错。在socket_send内部,当写缓冲已满(send返回-1,且errno为EAGAIN),那么会等待后再重试.这种方式并不很完美,在理论上可能会长时间的阻塞在socket_send内部,但暂没有更好的办法. ssize_t socket_send(int sockfd, const char* buffer, size_t buflen) { ssize_t tmp; size_t total = buflen; const char *p = buffer; while(1) { tmp = send(sockfd, p, total, 0); if(tmp < 0) { // 当send收到信号时,可以继续写,但这里返回-1. if(errno == EINTR) return -1; // 当socket是非阻塞时,如返回此错误,表示写缓冲队列已满, // 在这里做延时后再重试. if(errno == EAGAIN) { usleep(1000); continue; } return -1; } if((size_t)tmp == total) return buflen; total -= tmp; p += tmp; } return tmp; } 二、epoll在LT和ET模式下的读写方式 在一个非阻塞的socket上调用read/write函数, 返回EAGAIN或者EWOULDBLOCK(注: EAGAIN就是EWOULDBLOCK) 从字面上看, 意思是: * EAGAIN: 再试一次 * EWOULDBLOCK: 如果这是一个阻塞socket, 操作将被block * perror输出: Resource temporarily unavailable 总结: 这个错误表示资源暂时不够, 可能read时, 读缓冲区没有数据, 或者, write时,写缓冲区满了 。 遇到这种情况, 如果是阻塞socket, read/write就要阻塞掉。 而如果是非阻塞socket, read/write立即返回-1, 同 时errno设置为EAGAIN. 所以, 对于阻塞socket, read/write返回-1代表网络出错了. 但对于非阻塞socket, read/write返回-1不一定网络真的出错了. 可能是Resource temporarily unavailable. 这时你应该再试, 直到Resource available. 综上, 对于non-blocking的socket, 正确的读写操作为: 读: 忽略掉errno = EAGAIN的错误, 下次继续读 写: 忽略掉errno = EAGAIN的错误, 下次继续写 对于select和epoll的LT模式, 这种读写方式是没有问题的. 但对于epoll的ET模式, 这种方式还有漏洞. epoll的两种模式 LT 和 ET
-
[Python 表白代码]你最喜欢的表白场景是什么?"我路过一朵樱花,想与你分享"(永不落幕的樱花代码集)
-
趣谈留言队列,搞清楚留言队列到底是什么!-说到消息队列,洪觉大概能猜到人们听到消息队列的反应,大致可以分为以下几类人。 第一类人,懵懵懂懂,刚上大学接触编程,还没用过消息队列,甚至还以为消息队列就是代码里面要新建一个List之类的;第二类人,听过消息队列,了解消息队列,但具体是什么还不是太明白,只知道一说到消息队列,脑海里马上出现了三组词,削峰、异步、解耦;第三类人,用过消息队列,对它有一定了解,但不知道为什么要这样设计,消息队列有什么样的前世今生,是如何演化到现在的模式的?**第四类人,已经对消息队列有了足够的了解,可以阅读本帖作为复习和温习。**你属于哪一类?无论你对消息队列了解多少,读完这篇文章后,我相信你都会有所收获。 什么是消息队列?我们为什么要使用消息队列?真的只是因为它看起来很勉强、很常用吗?当然不是,一项技术的出现往往是为了解决某种痛点,我们就从这个痛点出发,看看消息队列到底是为了解决什么问题而诞生的。 相信大家在工作之前,或者工作中接触单片机的次数会多一点,不管什么业务都一股脑塞进一个系统里,这种情况下接触消息队列的场景会比较少。但随着业务的增长,量上去了,单机系统就很难维护了,也扛不住并发量的增长,就需要把原来的单体应用拆分成多个服务。例如,牛奇网采用分布式架构,将原来的单体系统拆分成用户服务、题库服务、求职服务、论坛服务等,每个分布式节点都有一个集群,保证高可用性。 那虽然在这样的微服务架构下,如果某个核心业务并发量过大,系统就扛不住了。比如淘宝、淘票票、拼多多、京东等电商场景中的支付场景,你在某宝下单并支付后,调用支付服务,完成支付后,还需要更新订单的状态,这个时候就需要调用订单服务,那我们平时也下单,除了简单完成这些操作外,还会给你相应的积分;商家也会收到订单消息,并给您发送旺旺消息,确认订单无误;同时,也会给您发送消息,确认订单无误。确认订单无误;同时您还可以查看您的物流状态;还有系统为了给您推荐更适合您的商品,会根据您的订单做类似的推荐等等,我说的这些都是当我们下单后,肉眼可以感知到系统所做的动作。 **一个支付动作如果还需要调用那么多服务,等他们响应成功,最后再告诉用户你支付成功了,用户在系统中的整个体验会非常糟糕。**设想一下,假设请求服务+处理请求+响应总共需要 50ms,我们上面列出的场景:支付服务、订单服务、积分服务、商家服务、物流服务、推荐服务,总共需要 300ms。
-
动手打造你的专属神经网络(用Python轻松编程实现)
-
加速你的Python编程:DASK是什么?
-
加速你的学习!CUDA编程快速入门指南
-
Python 3简介: 引领你进入新时代的编程语言