5G 或光纤速度更快
毫无疑问,必须是光纤比5G快!
4G、5G是无线传输,技术比较复杂,速度上很难突破,所以我们讨论这些技术的时候,很关心它们的理论最高速度。而光纤技术则要成熟很多,它属于有线传输,损耗小。光纤的理论最高速度实在是太大了,以致于我们根本不会去关心极限速度,而更多地关心其它速度瓶颈(比如光端机、网卡、交换机等)。普通光纤速度达到1000Gbps是没有任何压力的,而5G也才1Gbps左右,未来理论最高也就10Gbps。海底光缆的速度可以达到160Tbps,即160000 Gbps。
所以说,谈论理论极限速度,5G和光纤根本不在一个量级。
刚特地上网查资料,整理了一下历年家庭宽带的主流接入情况。2014年,主流4M。2015年,主流8M。2016年,主流20M。2017年,主流50M。2018年,主流100M。这个提速是很明显的。这告诉我们,不要用今天的眼光看待明天的光纤家庭宽带。5G在发展,家庭宽带同样也没有停止发展。韩国的宽带基本上都已经是1G了。
我们再看看4G。4G是2013年底推出了的,2014年4G使用占比大约7%,2015年大约30%。2014年,4G真的好火,网上一堆文章说快的不得了,理论速度可以达到100Mbps,而且那时(2014年)很多人实测确实达到了这个速度。大家也在想,那是不是光纤宽带要被淘汰了?看看我刚发的数据,2014年,主流宽带才4Mbps,而那时4G号称100Mbps。对比是何等的悬殊!
但是,当时谁能想到,家庭宽带同样也在发展?到了2018年,主流4G已经远远不是主流家庭宽带的对手了。即使在2015年,随着4G用户接入的增多,4G速度远远落后于那个100M的理论值。
从列出的数字来看,似乎仍然觉得好像4G/5G要优于同时期的宽带。那是因为我们对比不在同一个标准。说到家庭宽带,往往都说的实际能达到的速度,而说4G/5G则是说的极限速度。比方说100M宽带,用迅雷下载一个热门电影,确实可以达到12.5MB/秒的速度。注意100与12.5是8倍的关系,因为一个字节等于8个位。但是除非是4G/5G刚推出,或夜深人静时,否则很少有谁能达到它声称的理论极限速度。
网速到底怎么算,什么是理论最高速度?我们举个简单的例子类比。设想有一些货物要通过轮渡运到河对面。一艘轮渡的运货能力是1小时10吨。现在河边共有20艘轮渡。如果只有一个人需要运货,那么仅需出动一艘船,它的运货速度肯定能达到理论最高速度,也就是一小时10吨。如果有20个人同时运货,刚好一人一艘船,也刚好可以达到理论最大值。但是若人数再多,就不一样了。比如有40个人需要同时运货,平均下来,一个人的运货速度就只有一小时5吨了,是理论最高速度的1/2。
5G,或者光纤,也是同样的道理,人数多到一定程度,速度就必定会下降。有一次我去参加室外的一场跨年灯光展,在0点前后的那十几分钟,不管是4G,3G还是2G,根本就没有速度。很简单,人数太多(上万人),大家都想发朋友圈,结果网络拥堵了。我就在想,旁边的住户一定恨死这帮组织活动和观看活动的人了。因为他们在家里也上不去网。而家庭宽带,没有这个问题。
5G要想达到最高速度,也不是没有可能,那就必须安装很多基站。而这个成本,将会远远高于光纤宽带。
还有一点,非常重要,5G基站,最终接入机房,仍然使用的是光纤。主干网,也一定是光纤。也就是说,5G仅仅是解决最后几百米,最后几十米的问题。这就像城市道路一样,在高速路和城市快速路(高架)往往都不堵车,堵车的都是最后一公里。那么光纤就好比是那个高速和快速路。
为什么,普通家庭宽带的速度有时确实干不过5G的极限速度。这不是光纤本身的问题,而是出价高低的问题。平均说来,同样的价格,一定是家庭宽带更划算。通常光纤宽带都是不限速的,算包月价格。而5G按流量收费。用宽带可以放心的短期内快速下载好几T的东西。而如果用5G,那个价格高的吓人。如果愿意出更高的价,可以购买速度更快的专线宽带。那个速度绝对是秒杀5G。不过,可能这就不叫“家庭宽带”了。试想,腾讯、百度、阿里等的网络,难道会是5G?那必须是光纤嘛。5G那点速度,如何让机房的服务器可以应对双十一购物时的巨大流量?
为什么家庭宽带要人为限速,5G没有?因为前者是私有资源,光纤入户嘛。而5G基站属于公有资源,公共设施,类似于公园、地铁这种。即:你住房旁边的基站不是属于你家或你所在的小区,而是属于所有该基站附近出现过的人(包括偶尔路过的)。你可以花钱买更多的私有光纤带宽,但是通常却不能花钱(巨额除外)让运营商给你多装几个公有的基站。这也说明,光纤速度更稳定,更可控。
另外还需要注意到一个趋势:未来安装宽带的住户可能越来越少,而且该趋势不可逆转,但不会完全取代。这个就类似于电脑和手机的关系。电脑相当于宽带,手机相当于5G。虽然手机速度和功能赶不上电脑,但是手机具有可移动,方便携带的特点。你不可能整天抱个电脑到处跑,就好比宽带也只能家里用,出门还得用5G/4G等无线网。而且当手机速度快到一定程度,多数人不在乎电脑的速度了。现在很多家庭已经没有购买家用电脑了。不过这与刚讨论的并不矛盾,也就是5G速度依然不是光纤的对手,只不过家庭光纤虽然快是快,但是用的人会逐步减少。在一些家庭,宽带依然是不可替代的(尽管未来这类人越来越少),正如同虽然多数人不在家中用电脑,但是依然还有用电脑的,包括在家加班工作的,玩电脑游戏的,处理手机音频视频的,打印文件的,等等。注意,我一直强调家庭。因为在很多职业的工作场合,电脑和光纤是绝对的主角。也就是说,虽然家庭光纤宽带以后会越来越少,但是企业光纤则是不可少的。
总之,我们讨论5G时,说它快,是指的利用该技术,理论上的极限速度与过去(4G/3G)相比,快很多。而讨论宽带,很少去谈论极限速度。这个极限速度远远高于5G的极限。平时说的家庭宽带的带宽,是指的实际最高限速。这个限速是运营商限的,出价越高,就可以有更快的速度。但是5G,即使出天价,它的极限速度也就是那么多。
本文转载自我的悟空问答
上一篇: 科普:200M 光宽带入户,网速为何还只有几百K?
下一篇: IP 网络和光纤通信技术
推荐阅读
-
5G 或光纤速度更快
-
【Netty】「萌新入门」(七)ByteBuf 的性能优化-堆内存的分配和释放都是由 Java 虚拟机自动管理的,这意味着它们可以快速地被分配和释放,但是也会产生一些开销。 直接内存需要手动分配和释放,因为它由操作系统管理,这使得分配和释放的速度更快,但是也需要更多的系统资源。 另外,直接内存可以映射到本地文件中,这对于需要频繁读写文件的应用程序非常有用。 此外,直接内存还可以避免在使用 NIO 进行网络传输时发生数据拷贝的情况。在使用传统的 I/O 时,数据必须先从文件或网络中读取到堆内存中,然后再从堆内存中复制到直接缓冲区中,最后再通过 SocketChannel 发送到网络中。而使用直接缓冲区时,数据可以直接从文件或网络中读取到直接缓冲区中,并且可以直接从直接缓冲区中发送到网络中,避免了不必要的数据拷贝和内存分配。 通过 ByteBufAllocator.DEFAULT.directBuffer 方法来创建基于直接内存的 ByteBuf: ByteBuf directBuf = ByteBufAllocator.DEFAULT.directBuffer(16); 通过 ByteBufAllocator.DEFAULT.heapBuffer 方法来创建基于堆内存的 ByteBuf: ByteBuf heapBuf = ByteBufAllocator.DEFAULT.heapBuffer(16); 注意: 直接内存是一种特殊的内存分配方式,可以通过在堆外申请内存来避免 JVM 堆内存的限制,从而提高读写性能和降低 GC 压力。但是,直接内存的创建和销毁代价昂贵,因此需要慎重使用。 此外,由于直接内存不受 JVM 垃圾回收的管理,我们需要主动释放这部分内存,否则会造成内存泄漏。通常情况下,可以使用 ByteBuffer.clear 方法来释放直接内存中的数据,或者使用 ByteBuffer.cleaner 方法来手动释放直接内存空间。 测试代码: public static void testCreateByteBuf { ByteBuf buf = ByteBufAllocator.DEFAULT.buffer(16); System.out.println(buf.getClass); ByteBuf heapBuf = ByteBufAllocator.DEFAULT.heapBuffer(16); System.out.println(heapBuf.getClass); ByteBuf directBuf = ByteBufAllocator.DEFAULT.directBuffer(16); System.out.println(directBuf.getClass); } 运行结果: class io.netty.buffer.PooledUnsafeDirectByteBuf class io.netty.buffer.PooledUnsafeHeapByteBuf class io.netty.buffer.PooledUnsafeDirectByteBuf 池化技术 在 Netty 中,池化技术指的是通过对象池来重用已经创建的对象,从而避免了频繁地创建和销毁对象,这种技术可以提高系统的性能和可伸缩性。 通过设置 VM options,来决定池化功能是否开启: -Dio.netty.allocator.type={unpooled|pooled} 在 Netty 4.1 版本以后,非 Android 平台默认启用池化实现,Android 平台启用非池化实现; 这里我们使用非池化功能进行测试,依旧使用的是上面的测试代码 testCreateByteBuf,运行结果如下所示: class io.netty.buffer.UnpooledByteBufAllocator$InstrumentedUnpooledUnsafeDirectByteBuf class io.netty.buffer.UnpooledByteBufAllocator$InstrumentedUnpooledUnsafeHeapByteBuf class io.netty.buffer.UnpooledByteBufAllocator$InstrumentedUnpooledUnsafeDirectByteBuf 可以看到,ByteBuf 类由 PooledUnsafeDirectByteBuf 变成了 UnpooledUnsafeDirectByteBuf; 在没有池化的情况下,每次使用都需要创建新的 ByteBuf 实例,这个操作会涉及到内存的分配和初始化,如果是直接内存则代价更为昂贵,而且频繁的内存分配也可能导致内存碎片问题,增加 GC 压力。 使用池化技术可以避免频繁内存分配带来的开销,并且重用池中的 ByteBuf 实例,减少了内存占用和内存碎片问题。另外,池化技术还可以采用类似 jemalloc 的内存分配算法,进一步提升分配效率。 在高并发环境下,池化技术的优点更加明显,因为内存的分配和释放都是比较耗时的操作,频繁的内存分配和释放会导致系统性能下降,甚至可能出现内存溢出的风险。使用池化技术可以将内存分配和释放的操作集中到预先分配的池中,从而有效地降低系统的内存开销和风险。 内存释放 当在 Netty 中使用 ByteBuf 来处理数据时,需要特别注意内存回收问题。 Netty 提供了不同类型的 ByteBuf 实现,包括堆内存(JVM 内存)实现 UnpooledHeapByteBuf 和堆外内存(直接内存)实现 UnpooledDirectByteBuf,以及池化技术实现的 PooledByteBuf 及其子类。 UnpooledHeapByteBuf:通过 Java 的垃圾回收机制来自动回收内存; UnpooledDirectByteBuf:由于 JVM 的垃圾回收机制无法管理这些内存,因此需要手动调用 release 方法来释放内存; PooledByteBuf:使用了池化机制,需要更复杂的规则来回收内存; 由于池化技术的特殊性质,释放 PooledByteBuf 对象所使用的内存并不是立即被回收的,而是被放入一个内存池中,待下次分配内存时再次使用。因此,释放 PooledByteBuf 对象的内存可能会延迟到后续的某个时间点。为了避免内存泄漏和占用过多内存,我们需要根据实际情况来设置池化技术的相关参数,以便及时回收内存; Netty 采用了引用计数法来控制 ByteBuf 对象的内存回收,在博文 「源码解析」ByteBuf 的引用计数机制 中将会通过解读源码的形式对 ByteBuf 的引用计数法进行深入理解; 每个 ByteBuf 对象被创建时,都会初始化为1,表示该对象的初始计数为1。 在使用 ByteBuf 对象过程中,如果当前 handler 已经使用完该对象,需要通过调用 release 方法将计数减1,当计数为0时,底层内存会被回收,该对象也就被销毁了。此时即使 ByteBuf 对象还在,其各个方法均无法正常使用。 但是,如果当前 handler 还需要继续使用该对象,可以通过调用 retain 方法将计数加1,这样即使其他 handler 已经调用了 release 方法,该对象的内存仍然不会被回收。这种机制可以有效地避免了内存泄漏和意外访问已经释放的内存的情况。 一般来说,应该尽可能地保证 retain 和 release 方法成对出现,以确保计数正确。