一种上行链路分组接入系统中的小数据包调度方法

文档序号:9755618阅读:573来源:国知局
一种上行链路分组接入系统中的小数据包调度方法
【技术领域】
[0001] 本发明属于数字通信技术领域,具体设及一种高速上行链路分组接入(High Speed Uplink化cketAccess) (W下简称服UPA)系统中的基于小数据包聚合的优化调度方 案。
【背景技术】
[0002] 智能移动终端的快速普及使得移动互联网应用日益丰富,运类新兴业务不同于传 统的语音业务,具有分组数据量小、业务间歇到达等特点,一般被统称为小数据包业务。小 数据包业务的蓬勃发展使得WCDMA(Wideband CDMA,Code Division Multiple Access,宽 带码分多址)网络在没有太多数据流量增加的情况下,信令开销和系统负荷却急剧增长,影 响着网络的承载能力和进一步的盈利能力。
[0003] 在HSUPA系统中,由于采用了码分多址技术,同一小区中在相同频率上,所有移动 用户使用相同的带宽。下行方向上,基站发射给小区中某个用户的信号对本小区中的其他 用户W及相邻小区而言都是一种干扰;上行方向上,基站接收某个用户的发射信号时,也受 到小区中其他用户发射信号和相邻小区的干扰。3GPP标准用ROT(化Se Over Thermal,热噪 声抬升)n限来限制基站可接收到的RTWP(Received Total Wide Band化wer,接收带宽总 功率),RTWP包含本小区用户发送的控制信道功率及数据信道功率,W及用户的其他信道功 率和相邻小区对本小区的干扰。基站通过内环功率控制调整用户的控制信道发射功率:基 站定期测量用户发射信号的SNR(Signal to Noise Ratio,信噪比),将其与用户的目标SNR 比较,若低于目标SNR,基站发送一个功率控制指令给用户,指示其增加一定量的发射功率; 反之,若高于目标SNR,则基站通过功率控制指令指示用户降低发射功率。
[0004] 当用户与基站处于连接状态时,用户需要通过上行专用控制信道与基站进行通 信,用W传输物理层中的控制信息。当用户有数据包发送时,用户的E-DPDcmEnhanced Dedicated地ysical da1:a channel,增强型专用物理数据信道)信道和E-DPCaKEnhanced Dedicated地ysical control channel,增强型专用物理控制信道)信道被激活用W发送 数据。
[0005] 对于小数据包业务来说,在HSUPA系统上行方向,由于数据包传输时间短、数据包 间歇到达,并且需要周期性地发送用W保持用户和服务器连接的屯、跳信息,由于非激活定 时器的设置而导致无线信道长时间处于专用信道状态,即使当用户没有数据包传输时,也 需要通过DPCCH信道向基站发送控制信息,因此消耗了宝贵的功率资源。随着小区中用户数 的增加,控制信道占用的功率也随之增加,而当某用户有数据包发送向基站请求资源时,基 站可分配的资源有可能被很多不需要发送数据的用户的控制信道占用,导致无法成功接 入,因此小区的吞吐量受到了限制。

【发明内容】

[0006] 本发明提出一种基于数据包聚合的优化调度方法,该发明能够有效地减小用户发 射功率对系统的干扰,使基站在ROTn限的限制内尽量传输更多的数据量,从而提升小区平 均吞吐率和用户容量。
[0007]本发明的技术方案为:
[000引一种上行链路分组接入系统中的小数据包调度方法,其步骤为:
[0009] 1)在基站端设置一等待口限Twait;在每个调度周期开始时,缓冲区有数据包等待 发送的用户终端向基站发起调度请求SI;
[0010] 2)基站根据收到的调度请求SI判断用户终端当前缓冲区的数据包中最先到达的 数据包的等待时长是否达到或者超过设定的等待口限Twait:如果达到了等待口限!wait,则基 站根据该用户终端的调度请求SI为该用户终端进行优先级排序和资源分配;否则基站不受 理该用户终端的调度请求SI。
[0011] -种上行链路分组接入系统中的小数据包调度方法,其步骤为:
[0012] 1)在基站端设置一等待口限Twait;在每个调度周期开始时,缓冲区有数据包等待 发送的用户终端向基站发起调度请求SI;
[0013] 2)基站根据收到的调度请求SI判断用户终端当前缓冲区中的数据包总和达到设 定阔值,则基站根据该用户终端的调度请求SI为该用户终端进行优先级排序和资源分配; 否则基站不受理该用户终端的调度请求SI。
[0014] 进一步的,对于该用户终端当前缓冲区中的数据包,将达到间隔小于设定时间阔 值、数据包大小小于设定小包阔值的小数据包进行合并发送到基站。
[001引进一步的,该用户终端在MAC层将选取的小数据包合并发送到基站。
[0016] 进一步的,基站为进行小数据包合并的用户终端,增加资源分配,提高其数据传输 速率。
[0017] 进一步的,所述小包阔值为ISOOBytes。
[0018] 本方法具体流程图如图1所示,一种在服UPA系统中针对小数据包业务进行上行资 源调度的方法,其步骤为:
[0019] Stepl:在基站端为用户的调度设置等待口限Twait;
[0020] Step2:在每个调度周期开始时,缓冲区有数据包等待发送的用户终端向基站发起 SI (Scheduling Informat ion,调度信息)请求;
[0021] Step3:基站判断用户当前缓冲区的数据包中最先到达的数据包等待的时长是否 达到或者超过了等待口限Twait,选择一下两个步骤实施;
[0022] Step4.1:如果达到了等待口限Twait,则基站接收用户的SI请求,为用户进行优先 级排序和资源分配;
[0023] Step4.2:如果等待时长不够!wait,则基站暂时不受理用户的SI信息,用户会在W 后的每次调度周期继续向基站申请资源,重复步骤Step2;
[0024] 与现有技术相比,本发明的积极效果为:
[0025] 将此方案在基于小数据包业务模型的HSUPA系统级仿真平台上进行仿真实验,仿 真参数为下表:

[0027]吞吐率对比如图3所示,可W看出,聚合算法应用后,扇区的平均吞吐相对于基线 吞吐均有明显的抬升。此外,不同的聚合策略下,从仿真结果中可知,当Twait分别设置为1~ Stp时,系统的平均吞吐提升比例不同,Twait从巧Ij4tp,吞吐逐渐抬升,当Twait= 5tp时,系统吞 吐较Twait = 4^时有一定下降,说明针对系统吞吐的提升,本文提出的聚合算法在本文设定 的仿真条件下有一个最佳的聚合参数设置。在实际使用中,需要根据不同的实际情况予W 仿真,确定其最佳参数。
[00%]时延对比如图4所示,当用户个数是1~4个时,采用聚合算法后的时延相对于基线 平台有明显增加。运是因为聚合算法的原理是当用户有数据包到达并且等待发送时,基站 端会设置Twait时长的等待口限,到达口限时长后基站才调度用户的SI请求,因此,在基站 负荷较低、功率资源足够分配的场景下,聚合算法的采用会在一定程度上增加业务传输时 延。
[0029] 当用户个数是5~20后,系统负载增大,单个发送数据包会导致系统功率资源紧 张,用户需要在排队队列中等待较长时间才会被分配到资源,因此时延随用户数的增多逐 渐增大;在聚合算法中,虽然基站让用户的数据包等待了 Twait才被调度,但是运样在时间上 就降低了每个用户E-DPDCH信道被使用的概率,并且用户可W用比Twait/tp+1个数据包单独 发送的总功率要低的功率一次性发完lwait/tp+1个小数据包。因此聚合算法在节约系统功率 资源、提升吞吐量的同时,使得运Twait/tp+1个小数据包的平均传输时延比单次发送时要小。
【附图说明】
[0030] 图1为本发明的方法流程图;
[0031] 图2为本发明的系统结构图;
[0032] 图3为吞吐率对比图;
[0033] 图4为时延对比图。
【具体实施方式】
[0034] 下面结合附图对本发明的技术方案做详细描述,但不构成对本发明的限制。
[0035] H洲PA能增加上行链路的分组数据吞吐,关键是利用类似于HSDPA、基站调度和物 理层(层1)快速混合重传合并等方式。其一般功能可W用图2说明,Node B(基站)依据每一 个终端反馈的信息,依据终端的需求和自身的能力,为HSUPA用户提供需要的数据传输速 率。Node B依据终端反馈
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1