Ëæ×Å5G¼¼ÊõµÄѸÃÍ·¢Õ¹Óë¹ã·ºÆÕ¼°£¬»ùÕ¾ÒµÎñÁ¿µÄ¾«×¼Ô¤²âÓú·¢¹Ø¼ü¡£ÔÚ¶à»ùÕ¾µÄ³¡¾°ÖУ¬Ô¤²â¹¤×÷²»½öÒÀÀµÓÚ¸÷»ùÕ¾×ÔÉíµÄÀúÊ·ÒµÎñÁ¿ÐÅÏ¢£¬»¹Ðè³ä·Ö¿¼Á¿»ùÕ¾¼äµÄ¿Õ¼äÁªÏµ¼°Æä¶ÔÔ¤²â½á¹ûµÄ×÷Óᣱ¾Îľ۽¹ÓÚ¶à»ùÕ¾Ç龳ϵÄÒµÎñÁ¿Ô¤²âÎÊÌ⣬̽ÌÖʱ¼äά¶ÈºÍ¿Õ¼äά¶ÈÈçºÎÓ°Ïì»ùÕ¾ÒµÎñÁ¿µÄÔ¤²â³ÉЧ£¬ÒÔÆÚΪÏà¹ØÑо¿Óëʵ¼ùÌṩÓÐÒæµÄ²Î¿¼ºÍ½è¼ø¡£
»ùÕ¾ÒµÎñÁ¿Ô¤²â¸ÅÊö
5G»ùÕ¾ÒµÎñÁ¿Ô¤²â·½·¨³ÉΪÁËÒ»ÖÖÖØÒªµÄ¼¼ÊõÊֶΣ¬Ö¼ÔÚÌáǰ¸ÐÖªÁ÷Á¿µÄ±ä»¯Ç÷ÊÆ£¬´Ó¶ø°ïÖú»ùÕ¾½øÐÐ×ÊÔ´µÄºÏÀí·ÖÅäºÍµ÷Õû£¬ÒÔÂú×ãÓû§µÄÐèÇó¡£È»¶ø¶à»ùÕ¾ÒµÎñÁ¿Ô¤²âÊôÓÚ¸´ÔÓµÄʱ¼äÐòÁÐÔ¤²âÈÎÎñ¡£Ê±¼äÓò·½Ã棬´«Í³µÄÊýÀíͳ¼ÆºÍ»úÆ÷ѧϰģÐÍ£¬ÔÚÌáȡҵÎñÁ¿Êý¾ÝÌØÕ÷µÄÄÜÁ¦ÓÐÏÞ¡£½üÄêÀ´£¬Éî¶ÈѧϰģÐÍÒòΪÉó¤´¦Àí·ÇÏßÐÔÊý¾Ý£¬ËùÒÔ±»¿ª·¢Ó¦ÓÃÓÚʱ¼äÐòÁÐÈÎÎñÖС£µ«¾í»ýÉñ¾ÍøÂ磨CNN£©¾í»ý²ãµÄ¾Ö²¿¸ÐÖªÄÜÁ¦ÐèÒªÔÚÄ£ÐÍÖÐÉèÖöà²ã¾í»ýºÍ³Ø»¯²Ù×÷£¬Í¨³£ÄÑÒÔ²¶×½³¤ÆÚÒÀÀµ¹ØÏµ¡£Ñ»·Éñ¾ÍøÂ磨RNN£©ÀàµÄÄ£ÐÍ´æÔÚÌݶȱ¬Õ¨ºÍÎÞ·¨ÔÚÓ²¼þÏÔ¿¨Öв¢ÐÐѵÁ·µÄÎÊÌâ¡£´ËÍ⣬ÔÚ¿Õ¼äÓò·½Ã棬5G»ùÕ¾µÄÒµÎñÁ¿Êý¾Ý±íÏÖ³öÃ÷ÏÔµÄÇøÓòÐÔÌØÕ÷¡£

ͼ1 ²»Í¬µØÇø5G»ùÕ¾ÒµÎñÁ¿µÄ×ßÊÆÍ¼
Èçͼ 1 Ëùʾ£¬ÎÒÃÇ»ñÈ¡ÁËÀ´×Ô¸ßÌúÕ¾¡¢×¡Õ¬Çø¡¢¸ßУµÈ¶à¸öÇøÓòµÄÕæÊµ 5G »ùÕ¾ÒµÎñÁ¿Êý¾Ý£¬²¢»æÖƳöÏàÓ¦µÄÒµÎñÁ¿×ßÊÆÍ¼¡£¾·ÖÎö·¢ÏÖ£¬Ä³¸ßËÙ·¶ÎµÄ 5G »ùÕ¾ÒµÎñÁ¿³ÊÏÖ³öÏÔÖøµÄ³±Ï«ÌØÐÔ£¬Æä²¨·åÓ벨¹ÈµÄÊýÖµ²îÒìÆÄΪÏÔÖø¡£ÓëÖ®Ïà¶Ô£¬Ä³Ð¡ÇøµÄ 5G »ùÕ¾ÒµÎñÁ¿×ßÊÆ½ÏΪƽÎÈ»ººÍ£¬²¢ÇÒÔÚÇ÷ÊÆÉÏÓë¸ßËÙ»ùÕ¾µÄÒµÎñÁ¿×ßÊÆ±íÏÖ³öÒ»¶¨µÄÇ÷ͬÐÔ¡£ÁíÍ⣬¹«Ô°ÇøÓòµÄ 5G »ùÕ¾ÒµÎñÁ¿Êý¾ÝÖУ¬²¨·åºÍ²¨¹ÈµÄ³öÏÖʱ¼äÏà¶Ô¸üÔç¡£»ùÓÚÒÔÉϵķÖÎö£¬ÎÒÃÇÀûÓûùÕ¾Ö®¼äÔÚ¿Õ¼äÉϵÄÏà¹ØÐÔ£¬½øÒ»²½Ìá¸ßÄ£Ð͵ÄÔ¤²â¾«¶È¡£
GCformerʱ¿ÕÔ¤²âÄ£ÐÍ
ÎÒÃÇÃèÊöÈçºÎʹÓÃGCFormerÄ£ÐÍÀ´¶Ô5G»ùÕ¾µÄÒµÎñÁ¿½øÐÐÔ¤²â£¬Ä£ÐÍÓÉ¿ÕÓòºÍʱ¼äÓòÁ½¸ö×ÓÄ£¿é×é³É£¬Èçͼ2Ëùʾ¡£¿Õ¼äÓò·½Ã棬ÎÒÃǸù¾Ý¶à»ùÕ¾µÄ¹¤²ÎºÍÒµÎñÁ¿Êý¾Ý¶ÔÏà¹Ø»ùÕ¾½ÚµãÑ¡Ôñ£¬µÃµ½ÁÚ½Ó¾ØÕóµÄ¿Õ¼äÊý¾Ý¡£Ö®ºóÎÒÃÇʹÓÃͼ¾í»ýÉñ¾ÍøÂç(Graph Convolutional Networks, GCN)Ä£ÐÍÌáÈ¡»ùÕ¾ÍøÂçµÄ¿Õ¼ä¹ØÁª½á¹¹¡£Ê±Óò·½ÃæÎÒÃǽ«¶à»ùÕ¾µÄÀúÊ·ÒµÎñÁ¿Êý¾Ý£¬Í¨¹ý1D-CNNÄ£¿éÌáÈ¡ÀúÊ·Êý¾ÝµÄʱ¼ä¶ÎÐÅÏ¢£¬Æä´Î½«µÃµ½µÄÊý¾ÝÊäÈëµ½TransformerÄ£ÐÍÖС£²¢ÇÒÔÚTransformerµÄλÖñàÂëµÄ·Ö£¬ÎÒÃÇͨ¹ýTVOM(Time Variant Optimization Module)·½·¨¼ÓÈëÁËÖÜÆÚÏîÐÅÏ¢£¬Ìá¸ßÄ£ÐͲ¶»ñʱÐò¹ØÏµµÄÄÜÁ¦¡£×îºóÎÒÃǽ«Ê±¿ÕÁ½Ä£¿éµÄÊä³öÌØÕ÷½øÐÐÈںϣ¬µÃµ½Ä£Ð͵ÄÔ¤²â½á¹û¡£

ͼ2. GCformerϵͳģÐÍ£¬°üÀ¨Í¨¹ý1D-CNNºÍTVOMÄ£¿é¸Ä½øµÄTransformerÀàÄ£ÐͺÍͨ¹ý»ùÕ¾½ÚµãÑ¡Ôñ²¢»ùÓÚGCNÄ£Ð͵ĿռäÐÅÏ¢ÌáÈ¡²¿·Ö
ͼ¾í»ýÉñ¾ÍøÂçºÍÏà¹Ø»ùÕ¾½ÚµãÑ¡Ôñ
ͼÉñ¾ÍøÂç(Graph Neural Networks£¬GNN)ÊÇÒ»ÖÖ´¦ÀíͼÊý¾ÝµÄÉî¶ÈѧϰģÐÍ¡£ÓëCNN, RNNµÈ´«Í³µÄÉî¶ÈѧϰģÐͲ»Í¬£¬ËüÄܹ»´¦Àí·ÇÅ·¼¸ÀïµÂ¿Õ¼äµÄÊý¾Ý£¬¶Ô½ÚµãºÍ±ß½øÐÐÐÅÏ¢´«µÝºÍѧϰ£¬´Ó¶ø¶ÔÕû¸öͼ½øÐÐ×ۺϽ¨Ä£ºÍ·ÖÎö¡£
ͼ¾í»ýÉñ¾ÍøÂç(GCN)ÊÇ GNN ÖеÄÒ»ÖÖ¡£Ïà±ÈÓÚ´«Í³µÄ GNN£¬GCN ÀûÓÃͼÐνṹµÄÐÅÏ¢£¬ÔÚ½Úµã¾í»ý²Ù×÷ÖÐʹÓÃÁÚ½Ó¾ØÕóºÍ¶È¾ØÕó½øÐÐÌØÕ÷¾ÛºÏ£¬´Ó¶øÌáÈ¡½ÚµãµÄ¸ß²ã´ÎÌØÕ÷±íʾ£¬·´Ó³³ö»ùÕ¾¼ä¸´ÔÓµÄÍøÂçÍØÆË½á¹¹£¬½øÒ»²½×¼È·µØ²¶×½¿Õ¼äÏà¹ØÐÔ¡£¾ßÌåÀ´ËµGCN µÄºËÐľÍÊÇÔÚͼÐÎÊý¾ÝÉ϶¨Òå¾í»ý²ã¡£Ó봫ͳµÄ¾í»ýÉñ¾ÍøÂ粻ͬ£¬GCN Öеľí»ý²ãÖ¼ÔÚÀûÓÃͼÐνṹ£¬´ÓÏàÁÚ½ÚµãµÄÐÅÏ¢Öм³È¡ÓÐЧµÄÌØÕ÷£¬¶ø¹ØÏµÔ½Ç×½üµÄÁÚ¾Ó¶Ôµ±Ç°½ÚµãµÄÓ°Ïì¾ÍÔ½´ó¡£
ÔÚ¹¹½¨5G»ùÕ¾µÄÁÚ½Ó¾ØÕóʱ£¬Ñ¡ÔñºÏÊʵĻùÕ¾½ÚµãÊÇÖÁ¹ØÖØÒªµÄ£¬Õâ²»½öÓ°ÏìÊý¾ÝµÄ׼ȷÐÔ£¬»¹¹ØÏµµ½ÍøÂçÓÅ»¯µÄЧ¹û¡£»ùÓÚ´Ë£¬ÎÒÃÇÔËÓÃÈýÖÖ·½·¨À´¹¹½¨ÁÚ½Ó¾ØÕó£ºÒ»ÊÇŷʽ¾àÀë·¨£¬¼´Í¨¹ý¼ÆËãÁ½»ùÕ¾¼äµÄÖ±Ïß¾àÀëºâÁ¿ÆäÎïÀí½Ó½ü³Ì¶È£¬´ËΪÆÀ¹ÀµØÀíλÖÃÏà½ü»ùÕ¾¹ØÏµµÄ»ù±¾·½·¨£»¶þÊÇÇøÓòÀàÐÍ·¨£¬¼øÓÚ»ùÕ¾Ëù´¦ÇøÓòÀàÐÍ£¨ÈçÉÌ񵂿¡¢Ñ§Ð£Çø¡¢×¡Õ¬ÇøµÈ£©»á¶ÔÆäÒµÎñÁ¿ÌØÐÔ²úÉúÖØÒªÓ°Ï죬¹Ê¶øÒÀ¾ÝÇøÓòÀàÐͽ«¹¦ÄÜ»òλÖÃÏàËÆµÄ»ùÕ¾·Ö×飬ÒÔ´ËÃ÷Îú»ùÕ¾¼äµÄÒìͬ£»ÈýÊÇÒµÎñÁ¿ÏàËÆÐÔ·¨£¬½èÖúÓàÏÒÏàËÆ¶È¡¢¾ÛÀàµÈÊֶζԻùÕ¾¼äÒµÎñÁ¿Êý¾ÝÕ¹¿ª·ÖÎö£¬»ùÓÚÊý¾ÝÇý¶¯´Ó¶àά¶È½Òʾ»ùÕ¾ÔÚÒµÎñÁ¿ÉϵÄÏàËÆ»ò²îÒìÇé¿ö£¬ÖúÁ¦»ùÕ¾ÍøÂçµÄÀí½âÓë·ÖÎö¡£
ʱ¼äÓòÄ£ÐͺÍʱ±äÓÅ»¯Ä£¿é
TransformerÄ£ÐÍÊÇÒ»ÖÖÓ¦ÓÃÓÚÐòÁн¨Ä£µÄÉñ¾ÍøÂçÄ£ÐÍ£¬ÒòΪÆäÄÚ²¿µÄSelf-Attention»úÖÆÒÔ¼°Positional Encoding·½·¨£¬Ê¹µÃ¸ÃÄ£ÐÍÔÚÎı¾ÕªÒª¡¢ÓïÑÔ·ÒëµÈ×ÔÈ»ÓïÑÔ´¦ÀíÈÎÎñÖÐÈ¡µÃÁËÓÅÒìµÄ³É¼¨¡£½üÄêÀ´£¬TransformerÄ£ÐÍÒ²±»¹ã·ºÓ¦ÓÃÆäËûÁìÓòµÄÐòÁн¨Ä£ºÍÔ¤²âÈÎÎñ¡£¶ø5G»ùÕ¾ÒµÎñÁ¿Ô¤²âÊÇÒ»¸öʱ¼äÐòÁÐÔ¤²âÈÎÎñ£¬ÆäÖÐÿ¸öʱ¼ä´°¿Ú¶¼¶ÔÓ¦×Å»ùÕ¾µÄÒ»¶Îʵ¼ÊÒµÎñÁ¿¡£Òò´Ë£¬Transformer Ä£ÐÍ¿ÉÒÔ±»ÓÃÀ´¶Ô5G»ùÕ¾µÄÒµÎñÁ¿½øÐн¨Ä£ºÍÔ¤²â£¬ÎªÏà¹ØµÄÒµÎñ¾ö²ßÌṩ²Î¿¼ºÍÒÀ¾Ý¡£

ͼ3 Self-Attention and Multi-head attention
´ËÍ⣬´«Í³µÄTransformerÄ£Ð͸ù¾ÝÊäÈëÊý¾ÝλÖõIJ»Í¬£¬Í¨¹ýPositional EncodingµÄ·½·¨Ôö¼ÓÊäÈëÊý¾ÝÖ®¼äµÄ˳Ðò¹ØÏµ¡£µ«ÊÇÕâÖÖ¾ø¶ÔλÖñàÂëµÄ·½·¨£¬ÔÚ´¦Àí5G»ùÕ¾ÒµÎñÁ¿Êý¾Ýʱ£¬È±·¦¿É¿¿ÇÒÕë¶ÔÐÔµÄʱ¼äÐòÁеķÖÎö¡£Òò´Ë£¬ÎÒÃÇÌá³öTime Variant Optimization Module(TVOM)Ôö¼ÓTransformerÄ£ÐÍÖеÄʱÐòÐÅÏ¢¡£TVOMͨ¹ý¼ÆËãÊý¾ÝÖеÄÏà¹ØÐÔ£¬À´ÌáÈ¡5G»ùÕ¾Ð¡ÇøµÄÒµÎñÁ¿Êý¾ÝµÄÖÜÆÚÏîÐÅÏ¢£¬²¢½«ÖÜÆÚÊý¾Ý¼ÓÈëµ½Positional Encoding²¿·Ö¡£
¾ßÌåÀ´Ëµ£¬ÎÒÃÇÀûÓÃProphetÄ£ÐÍ·ÖÎö5G»ùÕ¾Óû§ÊýÒµÎñÁ¿Êý¾Ý£¬ÌáÈ¡³ö¾ßÌåµÄÖÜÆÚÐÔÐÅÏ¢¡£ËæºóÎÒÃÇͨ¹ý×îС¶þ³Ë·¨½øÐÐÇúÏßÄâºÏ£¬¸Ã·½·¨½«Éè¼ÆµÄÇúÏßÊý¾ÝºÍʵ¼ÊÊý¾ÝµÄÎó²î×÷ΪĿ±êº¯Êý£¬¶ÔÄâºÏµÄÇúÏß½øÐÐÓÅ»¯¡£Í¨¹ý×îС»¯Îó²îµÄƽ·½Öµ£¬À´»ñµÃ×îÓŵĶàÏîʽµÄϵÊý£¬½ø¶ø¹¹Ôì³öÖÜÆÚÏî¶ÔÓ¦µÄµÄº¯Êý±í´ïʽ¡£ÔÚѵÁ·Ä£Ð͵Ĺý³ÌÖУ¬½«Ð¡ÇøID×÷ΪƥÅä±êÇ©£¬¸ù¾ÝÊäÈëÊý¾ÝµÄÆðʼʱ¿Ì¶ÔÓ¦Ìæ»»ÖÜÆÚÏÊý¡£´Ó¶øÃÖ²¹ÔʼµÄPositional Encoding·½·¨ÎÞ·¨ÔÚʱ¼äÐòÁÐÊý¾ÝÖбíʾ²»×ãµÄÎÊÌâ¡£
×ܽá
ÔÚÕâÏîÑо¿ÖУ¬ÎÒÃǸù¾Ý5G»ùÕ¾ÒµÎñÁ¿Êý¾ÝµÄʱ¿ÕÌØÐÔ£¬Ìá³öÁËÒ»¸öÉî¶Èѧϰ¼Ü¹¹GCformer¡£ÎªÁËÓÐЧµØÃèÊö¶à¸ö»ùÕ¾Ö®¼ä¿Õ¼äÏà¹ØÐԵĹØÏµ£¬ÎÒÃÇѡȡÁË»ùÕ¾¾àÀë¡¢ÇøÓòÀàÐÍ¡¢Êý¾ÝÏàËÆ¶È½¨Á¢×ÛºÏÐÅÏ¢µÄÁÚ½Ó¾ØÕ󣬲¢Ê¹ÓÃGCNÄ£¿éÌáÈ¡Æä¿Õ¼ä¹ØÏµ¡£´ËÍâGCformerµÄʱ¼äÓòÄ£¿é¼Ì³ÐÁËTransformerÄ£ÐÍ£¬Ê¹ÓÃSelf-Attention·½·¨ÌáȡҵÎñÁ¿Êý¾ÝÖ®¼äµÄ¹ØÏµ£¬²¢ÇÒͨ¹ý1D-CNNºÍTVOMÄ£¿é½øÒ»²½ÌáÉý²¶»ñÊý¾ÝÖеÄʱÐòÐÅÏ¢¡£