Modelos Deep-Q-Network y su aprendizaje del control dinámico de la interferencia para mejorar el rendimiento de redes móviles celulares /
Cargando...
Archivos
Fecha
Autores
Título de la revista
ISSN de la revista
Título del volumen
Editor
Universidad Autónoma de Baja California.
Resumen
Con el avance de la tecnología de comunicación móvil celular, se espera que una
mayor cantidad y diversidad de dispositivos celulares coexistan en una misma área de
cobertura, pero, por otro lado, los nuevos servicios y aplicaciones móviles demandarán más
recursos radioeléctricos. Bajo este escenario, y con el poco espectro disponible para los
nuevos sistemas móviles de quinta generación o más allá (B5G), gestionar los recursos
(canales y su respectiva potencia) de la red móvil para que este sea más competente se vuelve
complejo debido a la interferencia originada por la necesidad de que mútiples dispositivos
utilicen la misma banda espectral. Para afrontar las exigencias del proceso de gestión de
recursos, las técnicas de Inteligencia Artificial (IA) han demostrado, en este y otros
contextos, que es una tecnología capaz de incrementar el rendimiento de la red móvil. En
este trabajo de tesis, se implementa un modelo de IA llamado Deep Q-Network (DQN) para
gestionar el nivel de potencia de transmisión de las estaciones base en respuesta a las
condiciones dinámicas del entorno de propagación. La asignación inteligente de este nivel de
potencia permite controlar el grado de interferencia de la red B5G, eficientizando, como
resultado, el uso compartido del recurso radioeléctrico. Sin embargo, dado el
comportamiento dinámico de la red B5G, la estrategia de asignación de potencia no puede
ser estática, como tampoco la forma en la que se entrena el modelo DQN para la gestión de
la potencia. En este sentido se propuso crear diversas experiencias a partir de la asignación
de diferentes niveles de potencia de transmisión durante el entrenamiento de ajuste del
modelo DQN. El objetivo es que el modelo DQN adapte sus parámetros de operación con
base a lo aprendido de los distintos comportamientos del entorno. Se diseñó un protocolo de
evaluación basado en transferencia sim2sim, con el que se transfiere el conocimiento
aprendido de los modelos DQN entre los entornos de simulación. Para reducir el tiempo en
el que el modelo DQN se adapta a las condiciones de red y las variaciones en la capacidad
durante el entrenamiento de ajuste, se implementó un mecanismo de doble buffer que permite
preservar el conocimiento aprendido de distintos entornos de red mientras se reutiliza el
conocimiento actual del entorno de red. Los resultados muestran que el tiempo transitorio se
reduce durante los entrenamientos de ajustes del modelo DQN. Además, se incrementa la
confiabilidad del modelo DQN y se reduce la variación de la capacidad durante la asignación
de potencia.
Descripción
Palabras clave
Sistemas de comunicación inalámbrica||Tesis y disertaciones académicas||lemb||Sistemas de comunicaciones móviles||Tesis y disertaciones académicas lemb