SciELO - Scientific Electronic Library Online

 
vol.42 número1Procedimiento para la implementación de la computación en la niebla en ciudades inteligentesControlador IMC-PID con filtro de orden fraccionario de un tramo de un canal principal de riego índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Ingeniería Electrónica, Automática y Comunicaciones

versión On-line ISSN 1815-5928

EAC vol.42 no.1 La Habana ene.-abr. 2021  Epub 17-Mayo-2021

 

Artículo original

Caracterización de soluciones de Almacenamiento Definido por Software, libres y de código abierto

Free and Open Source Software Defined Storage Solutions

Lilia R. García Perellada1  *  a
http://orcid.org/0000-0002-0435-9227

David García Díaz2  b
http://orcid.org/0000-0003-1095-0694

Arturo N. Díaz Crespo1  c
http://orcid.org/0000-0002-6407-344X

Alain A. Garófalo Hernández1  d
http://orcid.org/0000-0002-1643-8918

1Universidad Tecnológica de La Habana José Antonio Echeverría, CUJAE

2Empresa de Componentes Electrónicos “Ernesto Che Guevara”, Pinar del Río, Cuba

RESUMEN

En la actualidad es tendencia el diseño de sistemas de almacenamiento basados en soluciones definidas por software y hardware Commercial Off-The-Shelf; es por tanto una tarea decisiva para el éxito del proyecto la selección adecuada de la solución de software a emplear. Sin embargo, este proceso hoy se torna complejo y/o superficial, debido a las diferencias de criterios, procedimientos de selección, formas de evaluación y preferencias existentes en los ámbitos académico e industrial. Este escenario se agrava para las soluciones de tipo software libre y código abierto, y para las entidades con presupuestos limitados, ya que la mayoría de las consultoras con prestigio internacional solo incluyen en sus reportes a las soluciones propietarias, o se necesita de un pago para tener acceso a los informes y análisis realizados. Dada la situación problemática el presente trabajo propone una caracterización de las principales soluciones definidas por software para sistemas de almacenamiento libres y de código abierto para pequeñas y medianas empresas. La propuesta constituye una herramienta que agiliza y facilita el proceso de diseño de sistemas de almacenamiento, impactando en la reducción del tiempo de diseño, así como en las inversiones de capital de los proyectos y en los gastos de operación una vez en explotación el sistema de almacenamiento.

Palabras claves: sistemas de almacenamiento; diseño; caracterización; SDS; Ceph; GlusterFS; FreeNAS

ABSTRACT

The design of storage systems based on solutions defined by software and hardware Commercial Off-The-Shelf is currently a trend; therefore, the selection of the software solution is a key task for the project success. However, this process today can be complex and / or superficial, due to the differences in the academic and industrial fields regarding their preferences, criteria, selection procedures and evaluation tests of these solutions. This scenario is exacerbated for free and open source software solutions, and for entities with limited budgets, since most of the internationally renowned consultants only include proprietary solutions in their reports, or a payment is needed to access the published analyzes. Given the problematic situation, the present work identifies and proposes a characterization of the main free and open source storage defined software solutions for small and medium enterprises. The proposal constitutes a tool that speeds up and facilitates the process of designing storage systems. It impacts in the reduction of the design time, as well as in the projects’ capital investments and in the operating expenses once the storage systems are in operation.

Keywords: storage systems; design; characterization; SDS; Ceph; GlusterFS; FreeNAS

1. Introducción

Los Centros de Datos (CD), ya sean tradicionales o bajo el paradigma de la Computación en la Nube (CN), deben ser diseñados siguiendo un enfoque de arriba hacia abajo (top-down), en busca de una solución que realmente satisfaga los objetivos del negocio, las restricciones y requerimientos técnicos de las entidades que los necesitan. Actualmente, sin embargo, la tendencia es dimensionar para garantizar la Calidad de Servicio (QoS, Quality of Service), y adoptar las soluciones comerciales de pago de grandes proveedores, o simplemente aquellas que mayor presencia estén teniendo en el mundo de los CD o de la CN, sin tener presentes en primer lugar las necesidades y demandas del cliente. Una de las principales causas de este fenómeno es que no se cuenta con una consultoría o método que indique cómo planear CD desde la perspectiva del negocio, y en especial basadas en Software Libre y Código Abierto (SLCA). [1, 2]

La insuficiente articulación entre las estrategias para el despliegue de los CD privados, y los requerimientos de las entidades que los necesitan, se hace extensivo al diseño de los diferentes subsistemas que componen al CD, como es el caso del Sistema de Almacenamiento (SA). Este bloque tributa directamente al desempeño, la disponibilidad, la escalabilidad y la factibilidad económica del sistema en general, e incluso hoy constituye uno de los pilares de servicios con gran aceptación en el mercado como son la Infraestructura como Servicio (IaaS, Infrastructure as a Service) y el Almacenamiento como Servicio (DSaaS, Data Storage as a Service). [1] Es por ello, y por la necesidad de almacenar y administrar de manera eficiente, efectiva y segura los datos, que la tendencia es el diseño de SA basados en soluciones definidas por software y hardware Commercial Off-The-Shelf (COTS); es por tanto una tarea decisiva para el éxito del proyecto la selección adecuada de la solución de software a emplear.

Actualmente, sin embargo, este proceso puede resultar complejo, o en el peor de los casos superficial, debido a la deficiente información disponible en lo referente a cómo afrontar el diseño de un SA, en especial Definido por Software (SDS, Software Defined Storage) [3]. En la revisión bibliográfica enfocada a metodologías y/o pautas a seguir en el diseño de SA, realizada por los autores de la presente investigación, la mayoría de los documentos identificados fueron artículos indexados en conferencias, y muy pocos pertenecientes a artículos en revistas, lo que evidencia los pocos esfuerzos dedicados al tema.

En la academia la mayoría de las publicaciones se centran en las mejoras a las soluciones existentes como por ejemplo en: [4-10], mientras otras proponen sus diseños sin exponer comparativas o caracterizaciones que expliquen la adopción de la solución como en: [11,12]. Solo dos publicaciones referentes a propuestas de diseño de SA fueron identificadas por los autores del presente trabajo: [1 13], las que no abordan cómo seleccionar la solución de software para el SA. Este escenario se agrava para las soluciones de tipo SLCA, y para las entidades con presupuestos limitados, ya que la mayoría de las consultoras con prestigio internacional solo incluyen en sus reportes a las soluciones propietarias, como es el caso de RightScale, Forrester y WhatMatrix; o se necesita de un pago para tener acceso a los informes y análisis realizados, como demandan Gartner y la Consultora de Directivas Inteligentes (IDC, Intelligent Directions Consulting).

A partir del análisis de la situación problemática descrita, se llegó a la conclusión que la información disponible en la literatura especializada para guiar el proceso de selección de soluciones de tipo SLCA para desplegar SA es insuficiente. El objetivo de este trabajo fue identificar y caracterizar las principales soluciones SDS de tipo SLCA para Pequeñas y Medianas Empresas (PyME). La propuesta constituye una herramienta que agiliza y facilita el proceso de diseño de SA, impactando en la reducción del tiempo de diseño, así como en las Inversiones de Capital (CAPEX, Capital Expenditures) de los proyectos y en los Gastos de Operación (OPEX, Operating Expenses) una vez en explotación el SA. Para el desarrollo de la propuesta los autores realizaron un análisis bibliométrico en relación a la penetración de las soluciones SDS de tipo SLCA tanto en el ámbito empresarial como en el académico, y evaluaron las soluciones líderes tomando en cuenta los principales Requerimientos Funcionales (RF) y Requerimientos no Funcionales (RNF) de SA para PyME.

2. Penetración de las soluciones sds de tipo slca en los ámbitos industrial y académico

En post de identificar las principales soluciones SDS de tipo SLCA los autores del presente trabajo realizaron un análisis bibliométrico acerca de la penetración de estas soluciones en los ámbitos industrial y académico. Cinco tareas fueron desarrolladas: 1) identificación y estudio de reportes de reconocidas consultoras internacionales de la rama; 2) presencia de soluciones SDS en artículos científicos y eventos internacionales publicados en las bases de datos científico-técnicas de alto impacto: Instituto de Ingeniería Eléctrica y Electrónica (IEEE, Institute of Electrical and Electronics Engineers), Asociación de Maquinaria Computacional (ACM, Association for Computing Machinery) y Springer, entre los años 2017 al 2020; 3) soporte por parte de las principales Plataformas de Gestión de Nubes (CMP, Cloud Management Platform) de tipo SLCA; 4) identificación de los casos de uso en los que se estén explotando soluciones SDS de tipo SLCA; y 5) análisis de las tendencias en Google Trends.

Como parte de la Tarea 1 fueron analizados los reportes y comparativas de las consultoras Gartner, IDC, Forrester, RightScale y WhatMatrix, siendo las tres primeras las de mayor impacto internacional [14 15]. Gartner e IDC poseen análisis de tendencia y penetración que hacen referencia a soluciones como Ceph, HDFS y Lustre, pero la consulta a estos artículos se vio obstaculizada ya que es necesario pagar o estar afiliado a estas consultoras [16-19]. WhatMatrix por su parte, solo arroja comparativas de soluciones de pago, por lo que no aportó ningún elemento al objetivo de identificar herramientas SLCA líderes [20]. Por último, RightScale y Forrester no hacen referencia a soluciones SLCA en sus estudios [21-23]. Lo anterior ratifica, la insuficiencia de un procedimiento consensuado por la comunidad de la rama, que indique cómo elegir soluciones SDS de tipo SLCA.

La Fig. 1 muestra los resultados del desarrollo de la Tarea 2. En la Fig. 1a se presenta el resultado del análisis de artículos en revistas y la Fig. 1b muestra los resultados del análisis de trabajos presentados en conferencias científicas. Se muestra que HDFS [24-26], Lustre [7,27,28] y Ceph [6,12,29,30] son las soluciones SDS de tipo SLCA que mayor penetración poseen en el mundo académico, mientras que GlusterFS [8,11,31], iRODS [32], PVFS [33] y OpenFiler [34] poseen una presencia muy baja. En contraste, en el ámbito industrial y empresarial no se observó el mismo comportamiento, como se evidencia en las Tareas 3, 4 y 5.

Fig. 1 Publicaciones académicas que adoptan u abogan por una solución SDS de tipo SLCA en particular 

Los resultados de la Tarea 3 se presentan en la Tabla 1. Como se aprecia en esa tabla, el soporte de los CMP se encuentra dirigido principalmente a Ceph y GlusterFS, y en menor medida a OpenFiler.

Tabla 1 Soporte de soluciones SDS de tipo SLCA por los CMP líderes de tipo SLCA 

CMP Solución que soportan
Ceph HDFS Lustre GlusterFS FreeNAS iRODS OpenFiler PVFS
OpenStack X - - X - - X -
Proxmox X - - X X - X -
OpenNebula X - X X - - - -
CloudStack X - - X - - X -

Los resultados de la Tarea 4 se presentan en la Tabla 2. En la misma se aprecia que en las universidades y PyME los de mayor penetración son Ceph, iRODS y HDFS.

Tabla 2 Casos de uso de las soluciones SDS de tipo SLCA 

Soluciones Universidades Empresas de Telecomunicaciones Grandes Entidades PyME
Ceph Universidad MONASH [35] Deutsche Telekom, SK Telecom, ZTE, Verizon [35] CERN, Cisco, DigitalOcean, Western Digital, Teradata, Rackspace, Proxmox [35] DreamHost, Despegar.com, Dolphin IT - SYSTEME, Atol, Keeper Technology, WATERSHED, Your Secure Cloud, SWITCH, Flipkart, Rook, Arrikto, Adam, DRCMR, Catalysts, OICR [35]
GlusterFS1 - - Comcast, CenturyLink [36] Eagle Seven, Aquila, SOLUTE, MobiTV [36]
FreeNAS Universidad de Florida, Universidad del Estado de Michigan [37] - United Nations, Reuters, Departamento de Seguridad de Homeland [37] Salvation Army[37]
HDFS - - CERN, Economical Insurance, Visa [38] Royal Bank of Scotland, British Airways, Cloudera, Eminence Technosystem, Datamatics Financial Service[38]
iRODS University College London, Universidad de Groningen, Universidad de Maastricht [39] - Bayer, IBM, Intel, Dell EMC, Western Digital, NetApp, Centro de Computación Avanzado de Texas [39] RENCI, NIEHS DDN, Sanger Institute, MSC, OCF, SNIC, SURF, Quantum, Cloudian [39]
PVFS - - - -
OpenFiler - Motorola [40] Pratt and Whitney[40] BillMeLater, Policía Metropolitana de Londres [40]

En el análisis de las tendencias en Google Trends que se desarrolló dentro de la Tarea 5, se identificó que las soluciones que mayor interés recibieron en Google hasta el momento de la investigación fueron FreeNAS, HDFS y Ceph. La Fig. 2a muestra los resultados del análisis realizado utilizando como criterio de medida el interés a lo largo del tiempo, y en la Fig. 2b se presentan los resultados teniendo en cuenta el interés por región.

Como resultado del análisis anterior, en la investigación se decidió considerar como las principales soluciones SDS de tipo SLCA a Ceph, GlusterFS y FreeNAS. Ceph con presencia en el mundo académico, es soportado por los cuatro CMP de tipo SLCA líderes, siendo declarado en [41] como el SDS más empleado en infraestructuras desplegadas con OpenStack, así como en infraestructuras convergentes con Proxmox [42]. OpenStack constituye el estándar de facto en relación a los CMP de tipo SLCA, mientras Proxmox es un gestor de CD Virtualizados (CDV) con gran penetración en PyME, en consecuencia, Ceph podría considerarse un estándar de facto entre los SDS de tipo SLCA. GlusterFS, a pesar de tener poca presencia en los artículos y eventos científicos, posee presencia en el mundo empresarial e industrial, recibiendo el soporte de los cuatro CMP considerados. FreeNAS, a pesar de no contar con presencia en el ámbito académico y ser solo soportado por Proxmox, es la solución más destacada en el análisis realizado empleando la herramienta Google Trends, evidenciándose en la Fig. 2b su interés en varias regiones del mundo.

Figura 2 Ceph, HDFS, Lustre, GlusterFS y FreeNAS en Google Trends 

Al mismo tiempo HDFS, a pesar de destacar en todos los análisis realizados, es empleado principalmente en entornos de Big Data y de Computación de Alto Rendimiento (HPC, High Performance Computing), lo que no es la generalidad en las PyME. Por otro lado, Lustre, con gran presencia en la academia, posee poca penetración en la industria, mientras que PVFS e iRODS no son objetos de estudio en documentos científico-técnicos, así como tampoco son soportadas por ninguna de las soluciones CMP SLCA analizadas. A su vez, OpenFiler no destacó frente a FreeNAS en el estudio realizado en las PyME.

3. Evaluación de las principales sds de tipo slca: ceph, glusterfs y freenas

Con el objetivo de caracterizar a las soluciones SDS de tipo SLCA identificadas como principales en la Sección 2, dos tareas fueron realizadas: identificar el soporte de importantes RF y evaluar el comportamiento de las soluciones en los RNF de desempeño y disponibilidad.

3.1.- Identificación del soporte brindado a importantes rf

La Tabla 3 resume los resultados del estudio realizado donde fueron analizados 11 RF. De manera general los tres softwares poseen buenas funcionalidades. Ceph destaca por soportar el mayor número de RF, lo que ratifica la gran comunidad que se encuentra trabajando en su desarrollo. Además, es el único que soporta los tres tipos de procesamiento de datos, permitiendo el despliegue de una infraestructura basada en Tiers en su totalidad; presenta protección no solo a nivel de nodos, sino también a nivel de discos, así como que soporta el mecanismo Erasure Code (EC) el que permite explotar de forma más eficiente el espacio de almacenamiento. GlusterFS, a pesar de ser un sistema distribuido, posee como aspecto negativo que a la hora de garantizar alta disponibilidad utiliza ineficientemente el espacio en disco creando copias del mismo archivo en todos sus nodos. FreeNAS resalta por ser la única solución con soporte para la deduplicación, y ratifica que su mejor caso de uso es servir como SA para PyME que requieren bajos requerimientos de capacidad de almacenamiento y niveles de tolerancia y recuperación ante fallos no críticos.

3.2.- Evaluación de los rnf de desempeño y disponibilidad

Para hacer una evaluación de los RNF se realizaron las siguientes pruebas de desempeño:

  • Prueba de Throughput: Es una prueba de microbenchmark que tuvo como objetivo medir el throughput de los discos y del SA en general. Las métricas analizadas fueron: throughput de Lectura y Escritura (L/E) de los discos duros, operaciones por segundo de los discos duros, throughput de L/E del clúster del SA, operaciones por segundo del clúster del SA, y el throughput de la red del SA. Las herramientas empleadas fueron: Fio para medir el throughput y las Operaciones de Entrada y Salida por Segundo (IOPS, In-Out per Second) a los discos y al SA; e Iperf para medir el throughput de la red.

Tabla 3 Soporte de RF por parte de Ceph, GlusterFS y FreeNAS [43-45] 

RF Tipo Ceph GlusterFS FreeNAS
Tipo de procesamiento de datos soportado: Bloques Obligatorio No No
Ficheros Recomendable
Objetos Opcional
Soporte para interoperar con las tecnologías de virtualización: Virtualización Asistida por Hardware (HVM, Hardware Virtual Machine) Obligatorio
Virtualización a Nivel de Sistema Operativo (OSLV, Operating System Level Virtualization) Obligatorio
Soporte para interoperar con plataformas de orquestación de contenedores: Kubernets Opcional
Docker Swarm Opcional
Soporte para la encriptación de datos a nivel de SW: En reposo Obligatorio
En tránsito Recomendable
Protección a nivel de: Discos Obligatorio No
Nodos Recomendable No
Mecanismos de protección de datos: Réplicas Obligatorio No
EC Recomendable No
Arreglo Redundante de Discos Independientes (RAID, Redundant Array of Independent Disks) a nivel de software Opcional No
Chequeo de la integridad de los datos: Identificación de errores Obligatorio
Recuperación de errores Obligatorio
Soporte para snapshots. Recomendable Si
Soporte para salvas. Opcional
Soporte de la deduplicación. Recomendable No No
Soporte de la compresión de datos. Obligatorio
Thin provisioning Obligatorio
Soporte de rebalanceo de datos: Automático Recomendable
Manual Obligatorio
Soporte de mecanismos de QoS Recomendable No

  • Prueba de Tiempos de Respuesta: Es una prueba de microbenchmark que tuvo como objetivo obtener los tiempos de respuesta para las distintas operaciones realizadas sobre los discos y el SA en general. Las métricas analizadas fueron los tiempos de respuesta de los discos y del SA ante distintos tamaños de bloques de datos. Esta prueba utilizó la misma herramienta Fio que la Prueba de Throughput, con similar configuración. Los resultados, por tanto, fueron emitidos por la herramienta en la misma salida que los datos de la Prueba de Throughput.

  • Prueba de Utilización de Recursos: Es una prueba de carga que tuvo como objetivo identificar el uso de los recursos de cómputo de los nodos del SA ante E/L aleatorias con varios tamaños de bloques de datos. Las métricas analizadas fueron el porciento de utilización de la Unidad Central de Procesamiento (CPU, Central Processing Unit), de la Memoria de Acceso Aleatorio (RAM, Random Access Memory), la red y la capacidad de almacenamiento. Las herramientas empleadas fueron Fio, Zabbix, Htop y la interfaz de gestión de FreeNAS.

En relación a la disponibilidad solo fueron evaluados los atributos de tolerancia a fallos y recuperación ante fallos, debido a que los SDS se encuentran bajo pruebas y no en producción, por lo que no se cuentan con estadísticas históricas que permitan conocer el porciento de servicio activo (uptime) y el Tiempo Promedio entre Fallos (MTBF, Mean Time Between Failure). La prueba consistió en tres experimentos: a) remover un nodo del sistema y monitorizar el estado, b) reacoplar el nodo removido y ver la capacidad del sistema para reincorporarlo al clúster, y c) comprobar que no se produjesen pérdidas o corrupción de los datos. En el caso de FreeNAS lo que se removió/agregó fue un disco.

Los escenarios y configuración de las pruebas ejecutadas para GlusterFS, FreeNAS y Ceph se muestran en la Fig. 3. En el “Servidor Proxmox” residen los servicios que hacen uso del SA a través de la red: 10.8.9.0/24. En los casos de GlusterFS y Ceph se emplean dos nodos de almacenamiento para conformar el clúster, el que posee su propia red de gestión: 192.168.137.0/24. FreeNAS no trabaja en clúster, por lo que solo posee un solo nodo de almacenamiento.

Fig. 3 Escenario de pruebas de GlusterFS, FreeNA S y Ceph 

La Tabla 4 indica las prestaciones de los nodos de almacenamiento empleados, los que, al poseer recursos limitados, provoca que la configuración de la disponibilidad de las soluciones fuese la mínima. GlusterFS fue configurado en modo de réplica dos [46]. FreeNAS fue configurado con un Vdev en modo espejo [47]. En el caso de Ceph cada disco de datos fue configurado como un Dispositivo de Almacenamiento de Objetos (OSD, Object Storage Device), y en uno de los nodos fue desplegado un monitor, de esta forma si uno de los OSD falla la información se replicará en el otro, garantizando su accesibilidad [48].

Para la interconexión de los dispositivos en los escenarios se utilizó cableado de tipo Par Trenzado no Blindado (UTP, Unshielded Twisted Pair) categoría cinco y dos conmutadores de tipo Cisco Catalyst 2960G-24TC-L Switch cuyo datasheet se encuentra disponible en [49].

La Prueba de Throughput arrojó que FreeNAS demostró mejor throughput que Ceph y GlusterFS, como muestra la Fig. 4. Se considera que este resultado se debe a que el arreglo de discos está conectado directamente a la placa del servidor y no depende de los componentes de la red, a diferencia de los otros dos SDS. Ceph y GlusterFS mostraron un comportamiento similar ante las métricas de throughput e IOPS, como indica la Fig. 4, excepto en las transferencias de archivos pequeños, 4 kB, y en la escritura secuencial en donde Ceph tuvo mejores rendimientos, como se refleja en la Fig. 4b.

Tabla 4 Prestaciones de los nodos de almacenamiento empleados 

Nodos CPU RAM Discos Interfaces de red utilizadas Sistema operativo
Cantidad de Discos Tiempo de uso en horas
Sistema Operativo Almacenamiento Sistema Operativo Almacenamiento
ceph01 Intel(R) Xeon(R) CPU l5420 @ 2.50ghz 16 GB 1x160 GB Sata 3 WD 1x160 GB Sata 3 WD 73613 73561 2x 1 GBE Ubuntu 18.04 live-server
ceph02 Intel(R) Xeon(R) CPU l5420 @ 2.50ghz 16 GB 1x160 GB Sata 3 WD 1x160 GB Sata 3 WD 73210 73597 2x 1 GBE Ubuntu 18.04 live-server
glusterfs01 Intel(R) Xeon(R) CPU l5420 @ 2.50ghz 16 GB 1x160 GB Sata 3 WD 1x160 GB Sata 3 WD 72862 73403 2x 1 GBE Debian 9 (stretch)
glusterfs02 Intel(R) Xeon(R) CPU l5420 @ 2.50ghz 16 GB 1x160 GB Sata 3 WD 1x160 GB Sata 3 WD 72977 72403 2x 1 GBE Debian 9 (stretch)
freeNAS Intel(R) Xeon(R) CPU l5420 @ 2.50ghz 8 GB 1x160 GB Sata 3 WD 2x160 GB Sata 3 WD 73601 72197,71894, 1x 1 GBE FreeNAS 11.2-RELEASE-U1

Fig. 4 Resultados de la Prueba de Throughput a Ceph, GlusterFS y FreeNAS 

La Fig. 5 muestra los resultados de la prueba de tiempo de respuesta. En la misma se aprecia que Ceph posee los mejores tiempos de respuestas, principalmente a la hora de realizar lecturas y de trabajar con archivos pequeños, 4 kB, reafirmando su buen desempeño con este tipo de archivos, al igual que con los parámetros de IOPS y throughput. También se apreció que a medida que creció el tamaño de los datos las demoras aumentaron, lo que es comprensible porque los sistemas demoran más en el procesamiento de datos más grandes. Por otra parte, con grandes archivos las mayores demoras de Ceph son generadas a la hora de escribir, al contrario de FreeNAS que las posee a la hora de realizar lecturas. GlusterFS fue el que peor desempeño mostró en esta prueba.

Fig. 5 Resultados de tiempos de respuestas de L/E de Ceph, GlusterFS y FreeNAS 

La Prueba de Utilización de Recursos fue realizada mediante la generación de las cargas de L/E mostradas en la Tabla 5. Las cargas fueron generadas a cuatro Instancias Virtuales (IV) desplegadas en Proxmox, con sus discos virtuales almacenados en los SDS.

Tabla 5 Cargas generadas en la Prueba de Utilización de Recursos 

Escritura Lectura
Instancias Virtuales Escritura Secuencial Escritura Aleatoria Lectura Secuencial Lectura Aleatoria
IV 1 20 trabajos a 4KB 8 trabajos a 4KB
IV 2 8 trabajos a 256KB 8 trabajos a 1024KB
IV 3 20 trabajos a 4KB 8 trabajos a 4KB
IV 4 8 trabajos a 256KB 8 trabajos a 1024KB

La Tabla 6 muestra los porcientos de utilización percibidos y los valores de throughput e IOPS máximos alcanzados durante la generación de las cargas de L/E mostradas en la Tabla 5. Del análisis de esa tabla se puede concluir que la carga generada a los nodos de almacenamiento puede ser aumentada.

Tabla 6 Índices de utilización, throughput e IOPS percibidos en los SDS ante la generación de cargas de L/E 

Solución Carga del Clúster
Escritura Lectura IOPS
Ceph Valor Máximo 190 MB/s 170 MB/s 10157
% Utilizado 56.47% 33.57% 81.32%
FreeNAS Valor Máximo 230 MB/s 195 MB/s 8588
% Utilizado 47.060% 46.15% 78.065%
GlusterFS Valor Máximo 170 MB/s 140 MB/s 9768
% Utilizado 43.58 % 40.84% 84.93%

Esta prueba también demostró que los SA no requieren altos requerimientos de CPU. En el caso de la RAM los requerimientos pueden ser mayores, en especial en los procesos de lectura, ya que en la mayoría de los casos es empleada como caché

La Fig. 6 muestra como Ceph ratifica tener los mejores índices de rendimiento al mantener valores similares de iowait en los procesos de L/E. Esto no es así en GlusterFS y FreeNAS los que en los procesos de escritura presentan valores del 10%, mientras que en la lectura son cercanos al 20%.

Fig. 6 Índices de utilización del CPU de los nodos de almacenamiento 

En el caso de los índices de utilización de las redes de los SA, GlusterFS alcanzó valores cercanos a los 350 Mb/s en los procesos de L/E, a diferencia de FreeNAS con solo 45 Mb/s. Esta diferencia es debido a que GlusterFS utiliza esta red tanto para comunicarse con la plataforma de gestión como para la replicación entre sus nodos, a diferencia de FreeNAS que realiza la replicación localmente en el servidor físico y no emite cargas de este tipo a la red. En el caso de Ceph la red del SA está dividida en dos subredes: la Red del Clúster y la Red del Cliente, demandando mayores recursos de hardware y costos. En las pruebas se pudo constatar, que, en caso de no existir un rebalanceo de carga, los índices de utilización de la Red del Clúster son bajos. En los procesos de L/E se alcanzaron valores de hasta 360 Mbps en la Red del Cliente.

En el caso de la prueba de tolerancia a fallos y recuperación ante fallos en vistas a comprobar la disponibilidad que brindan los SDS, fueron realizadas sumas de verificación, Checksum: cksum, md5sum y sha256sum, a archivos contenidos en los almacenamientos. Posteriormente se provocaron fallas en los servidores, y una vez resueltas se comprobó nuevamente la integridad de los archivos empleando el Checksum. En los tres SDS la prueba resultó exitosa. La Fig. 7 ejemplifica el proceso aplicado a GlusterFS. En la Fig. 7a se muestra el resultado de la Tarea 1, en donde se ilustra el resultado satisfactorio de la suma de verificación de un contenedor de Ubuntu 16 que fue subido en Proxmox y almacenado en GlusterFS. La Figura 7b y 7c muestran los resultados satisfactorios de las Tareas 2 y 3 en lo que se refiere a la remoción y el reacoplamiento de un nodo respectivamente. Finalmente, la Figura 7d muestra los resultados satisfactorios de la Tarea 4 comprobándose que no se producen pérdidas o corrupción de los datos almacenados en el SA lo que demuestra que el sistema posee protección ante fallos a nivel de nodos.

Fig. 7 Evidencias de la prueba de tolerancia a fallos aplicada a GlusterFS 

4. Caracterización final de las principales soluciones sds de tipo slca

La Tabla 7 resume los resultados fundamentales obtenidos de las evaluaciones realizadas a Ceph, GlusterFS y FreeNAS en las secciones anteriores.

Tabla 7 Principales resultados de las evaluaciones de Ceph, GlusterFS y FreeNAS 

SISTEMAS DE ALMACENAMIENTO
REQUERIMIENTOS
Alta Disponibilidad a nivel de nodo * x
Alta Disponibilidad a nivel de disco
Escalabilidad horizontal x
Alto throughput ✓✓
Tolerancia a fallos * *
Usabilidad (Soporte de una interfaz gráfica de usuario) x x
Eficiencia en el uso de la capacidad de almacenamiento * x
Frecuencia de actualización de las soluciones *
Tipos de procesamiento de datos Bloques x
Ficheros
Objetos x
Tareas Virtualización Contenedores de Linux (LXC, LinuX Container)-LXD ✓✓
Kernel-based Virtual Machine (KVM) ✓✓
Alto throughput (Ejemplo: bases de datos y páginas webs) ✓✓ ✓✓
Salvas ✓✓ ✓✓
Compartición de datos (Ejemplos: documentos, fotos y videos) ✓✓
DSaaS ✓✓ ✓✓

Leyenda:

✓Soportax No Soporta ✓*Sobresale respecto a las demás soluciones ✓✓Elección Recomendada

A partir de estos resultados se realizan las siguientes propuestas:

  • Para PyME que a corto y a largo plazo solo requieren un nodo de almacenamiento, FreeNAS constituye una solución pertinente, por sus altos índices de desempeño, disponibilidad, interoperabilidad con las diferentes soluciones de virtualización de servidores, facilidad de uso e integración con Proxmox, CMP por excelencia para las PyME que no brinden IaaS.

  • Para soluciones de SA con más de un nodo, ya sea una infraestructura homogénea o basada en Tiers, Ceph es la solución adecuada debido a su alta disponibilidad, gran tolerancia a fallos, índices de desempeño, eficiencia en el uso del espacio de almacenamiento, interoperabilidad con las tecnologías de virtualización de servidores, soporte de los tres tipos de procesamiento de datos y los diferentes mecanismos para su protección, y sobre todo por la gran comunidad que le respalda, lo que le permite tener una alta frecuencia de actualización e interoperabilidad con los diferentes CMP y otras herramientas de gestión de CD y/o Nube Privada (NP) con soporte para IaaS.

Los resultados obtenidos, por tanto, permiten, al menos en la actualidad y por un periodo de al menos un año o dos, agilizar el diseño de SA para CD virtualizados y NP con soporte para IaaS de PyME.

Dos casos de uso que respaldan la propuesta realizada son el diseño, despliegue y puesta en marcha de los SA de la Universidad Tecnológica de La Habana José Antonio Echeverría (CUJAE) y de la Unidad Científico-Tecnológica de Base (UCTB) de Geofísica de la Unión Cuba-Petróleo (CUPET) [1,13]. Actualmente Ceph se mantiene como el SA de la CUJAE. Ha demostrado ser un SA interoperable, escalable y de alta disponibilidad. Desde su despliegue ha interoperado con dos CMP: OpenNebula y Proxmox, y se le ha incrementado el número de nodos de almacenamiento como muestra la Fig. 8.

En el caso de la CUJAE, el nivel de disponibilidad de Ceph desde su puesta en marcha en el año 2017 hasta el año 2019 es del 99.9% como se muestra en la Fig. 9 donde se puede apreciar que desde su instalación no ha presentado interrupciones.

Fig. 9 Tiempo activo de Ceph en la CUJAE 

5. Conclusiones

En el presente trabajo fueron identificadas a Ceph, GlusterFS y FreeNAS, como las principales SDS de tipo SLCA a desplegar en PyME. Ceph resultó ser la solución que mejor QoS ofrece, recibiendo a su vez el mayor soporte por parte de la comunidad de tipo SLCA, por lo que los autores del presente trabajo proponen su empleo en escenarios en donde se requieran alta tolerancia a fallos y mediana o gran capacidad de almacenamiento. A su vez, FreeNAS, para entidades con bajos requerimientos de capacidad y tolerancia a fallos, es considerada la más pertinente por sus índices de desempeño e interoperabilidad con gestores de CDV, así como su facilidad de uso. La caracterización fue realizada teniendo en cuenta los principales RF y RNF de los SA, constituyendo una herramienta que puede ser usada para brindar criterios a la hora de escoger qué tipo de soluciones desplegar en función de los objetivos, requerimientos y restricciones del cliente. La propuesta impacta en: la simplificación y reducción del tiempo de los procesos de diseño de SA, la alineación de los procesos de diseño de SA con los objetivos y requerimientos de la entidad cliente, la independencia tecnológica, y en la factibilidad económica de los proyectos de esta índole.

Agradecimientos

Los autores desean agradecer a la Dirección de los Servicios de las Tecnologías de la Información y las Comunicaciones (DISERTIC) de la CUJAE, por haber puesto a disposición de los autores los recursos necesarios para poder realizar el presente trabajo; así como al grupo de administradores de red del CD de la CUJAE por su apoyo y ayuda incondicional.

Referencias

1. Díaz Crespo AN, García Perellada LR, Garófalo Hernández AA, Vega Gutiérrez S. PROCEDIMIENTO DE DISEÑO DE SISTEMAS DE ALMACENAMIENTO PARA PEQUEÑAS Y MEDIANAS EMPRESAS. En: Informática 2018. Palacio de Convenciones de La Habana; La Habana; Cuba; 2018 [ Links ]

2. García-Perellada LR, Garófalo-Hernández AA. Procedimientos, métodos y/o buenas prácticas para diseñar nubes privadas. ITECKNE [Internet]. 7 de diciembre de 2018 [citado 13 de diciembre de 2018];15(2):99-106. Disponible en: Disponible en: http://revistas.ustabuca.edu.co/index.php/ITECKNE/article/view/2071Links ]

3. Macedo R, Paulo J, Pereira J, Bessani A. A Survey and Classification of Software-Defined Storage Systems. ACM Comput Surv [Internet]. 28 de mayo de 2020 [citado 4 de noviembre de 2020];53(3):1-38. Disponible en: Disponible en: https://doi.org/10.1145/3385896Links ]

4. Dai K, Chen B. An Improvement on the Authentication and Encryption of Ceph in Unreliable Environments. En: 2019 IEEE 10th International Conference on Software Engineering and Service Science (ICSESS). 2019. p. 1-7. [ Links ]

5. Fingler H, Ra M, Panta R.Scalable, Efficient, and Policy-Aware Deduplication for Primary Distributed Storage Systems. En: 2019 31st International Symposium on Computer Architecture and High Performance Computing (SBAC-PAD).2019p. 180-187. [ Links ]

6. Jeong K, Duffy C, Kim J, Lee J. Optimizing the Ceph Distributed File System for High Performance Computing. En: 2019 27th Euromicro International Conference on Parallel, Distributed and Network-Based Processing (PDP). 2019. p. 446-451. [ Links ]

7. Paul AK, Chard R, Chard K, Tuecke S, Butt AR, Foster I. FSMonitor: Scalable File System Monitoring for Arbitrary Storage Systems. En: 2019 IEEE International Conference on Cluster Computing (CLUSTER). 2019. p. 1-11. [ Links ]

8. Tang Z, Sha S, Zhang J, Li Z, Peng H, Du H. WebGlusterFS2.0: A Web-based Administration Tool for GlusterFS with Unattended Deployment and Automatic Configuration of Xlator. En: 2019 Computing, Communications and IoT Applications (ComComAp). 2019. p. 276-281. [ Links ]

9. Wang J, Wang Y, Wang H, Ye K, Xu C, He S, et al. Towards Cluster-wide Deduplication Based on Ceph. En: 2019 IEEE International Conference on Networking, Architecture and Storage (NAS). 2019. p. 1-8. [ Links ]

10. Zhang X, Wang Y, Wang Q, Zhao X. A New Approach to Double I/O Performance for Ceph Distributed File System in Cloud Computing. En: 2019 2nd International Conference on Data Intelligence and Security (ICDIS). 2019. p. 68-75. [ Links ]

11. Kirby A, Henson B, Thomas J, Armstrong M, Galloway M. Storage and File Structure of a Bioinformatics Cloud Architecture. En: 2019 IEEE Cloud Summit. 2019. p. 110-115. [ Links ]

12. Yang C, Chen S, Cheng W, Chan Y, Kristiani E. A Heterogeneous Cloud Storage Platform With Uniform Data Distribution by Software-Defined Storage Technologies. IEEE Access. 2019;7:147672-147682. [ Links ]

13. Albeirus Padrón D, García Perellada LR, Ferrat Garea D. PROPUESTA DE UN MÉTODO PARA EL DISEÑO DE SISTEMAS DE ALMACENAMIENTO PARA CENTROS DE DATOS. En: 18 Convención Científica de Ingeniería y Arquitectura. Palacio de Convenciones de La Habana; La Habana; Cuba; 2016. p. 896-907. [ Links ]

14. The Analyst Syndicate. Industry Analyst Firms: The Numbers [Internet]. The Analyst Syndicate. 2020 [citado 6 de noviembre de 2020]. Disponible en: Disponible en: https://thansyn.com/using-revenue-per-analyst-to-rank-analyst-firms/Links ]

15. Chapple D. Gartner, Forrester, IDC and 451 lead 2019 Global Analyst Firm Awards [Internet]. CCgroup. 2019[citado 6 de noviembre de 2020]. Disponible en: Disponible en: https://blog.ccgrouppr.com/blog/gartner-forrester-idc-and-451-lead-2019-global-analyst-firm-awardsLinks ]

16. IDC. Software-Defined Converged and Hyperconverged Infrastructure [Internet]. IDC: The premier global market intelligence company. 2021 [citado 11 de enero de 2021]. Disponible en: Disponible en: https://www.idc.com/getdoc.jsp?containerId=IDC_P19654Links ]

17. IDC. Worldwide Software-Defined Storage Controller Software Forecast, 2020-2024: While Remaining a Market Leader, Growth Will Slow [Internet]. IDC: The premier global market intelligence company. 2020 [citado 11 de enero de 2021]. Disponible en: Disponible en: https://www.idc.com/getdoc.jsp?containerId=US46810120Links ]

18. Gartner. The Future of Software-Defined Storage in Data Center, Edge and Hybrid Cloud [Internet]. Gartner. 2019 [citado 11 de enero de 2021]. Disponible en: Disponible en: https://www.gartner.com/en/documents/3913237/the-future-of-software-defined-storage-in-data-center-edLinks ]

19. Gartner. Invest Implications: ‘The Future of Software-Defined Storage in Data Center, Edge and Hybrid Cloud’ [Internet]. Gartner. 2019 [citado 11 de enero de 2021]. Disponible en: Disponible en: https://www.gartner.com/en/documents/3913308/invest-implications-the-future-of-software-defined-storaLinks ]

20. Rutten H. Independent Comparison of Software-Defined Storage & Hyper-Converged solutions [Internet]. WhatMatrix Online Comparisons; 2017 [citado 11 de enero de 2021]. Disponible en: Disponible en: https://www.whatmatrix.com/comparison/SDS-and-HCILinks ]

21. Flexera. RightScale 2019 State of the Cloud Report from Flexera [Internet]. Flexera. 2019 [citado 11 de enero de 2021]. Disponible en: Disponible en: https://resources.flexera.com/web/media/documents/rightscale-2019-state-of-the-cloud-report-from-flexera.pdfLinks ]

22. Forrester. Now Tech: Hyperconverged Infrastructure, Q2 2020 [Internet]. Forrester. 2020 [citado 11 de enero de 2021]. Disponible en: Disponible en: https://www.forrester.com/report/Now+Tech+Hyperconverged+Infrastructure+Q2+2020/-/E-RES157322?objectid=RES157322Links ]

23. Forrester. Navigate The Choices And Experiences Of Hyperconverged Infrastructure [Internet]. Forrester. 2020[citado 11 de enero de 2021]. Disponible en: Disponible en: https://www.forrester.com/report/Navigate+The+Choices+And+Experiences+Of+Hyperconverged+Infrastructure/-/E-RES160338?objectid=RES160338Links ]

24. Shwe T, Aritsugi M. Preventing Data Popularity Concentration in HDFS based Cloud Storage. En: Proceedings of the 12th IEEE/ACM International Conference on Utility and Cloud Computing Companion[Internet]. New York, NY, USA: Association for Computing Machinery; 2019 [citado 6 de noviembre de 2020]. p. 65-70. Disponible en: Disponible en: https://doi.org/10.1145/3368235.3368843Links ]

25. Ma T, Tian F, Dong B. Ordinal Optimization-Based Performance Model Estimation Method for HDFS. IEEE Access. 2020;8:889-899. [ Links ]

26. Li H, Li X, Lu Y, Qin X. An Experimental Study on Data Recovery Performance Improvement for HDFS with NVM. En: 2020 29th International Conference on Computer Communications and Networks (ICCCN). 2020. p. 1-9. [ Links ]

27. Dai D, Gatla OR, Zheng M. A Performance Study of Lustre File System Checker: Bottlenecks and Potentials. En: 2019 35th Symposium on Mass Storage Systems and Technologies (MSST). 2019. p. 7-13. [ Links ]

28. Qian Y, Li X, Ihara S, Dilger A, Thomaz C, Wang S, et al. LPCC: hierarchical persistent client caching for lustre. En: Proceedings of the International Conference for High Performance Computing, Networking, Storage and Analysis [Internet]. New York, NY, USA: Association for Computing Machinery; 2019 [citado 4 de noviembre de 2020]. p. 1-14. Disponible en: Disponible en: https://doi.org/10.1145/3295500.3356139Links ]

29. Park C, Jo Y, Lee D, Kang K. Change Your Cluster to Cold: Gradually Applicable and Serviceable Cold Storage Design. IEEE Access. 2019;7:110216-110226. [ Links ]

30. Yang C, Liu J, Kristiani E, Liu M, You I, Pau G. NetFlow Monitoring and Cyberattack Detection Using Deep Learning With Ceph. IEEE Access. 2020;8:7842-7850. [ Links ]

31. Leite R, Solis P. Performance Analysis of Data Storage in a Hyperconverged Infrastructure Using Docker and GlusterFS. En: 2019 XLV Latin American Computing Conference (CLEI). 2019. p. 1-10. [ Links ]

32. Wang J, Han D, Yin J, Zhou X, Jiang C. ODDS: Optimizing Data-Locality Access for Scientific Data Analysis. IEEE Trans Cloud Comput. enero de 2020;8(1):220-231. [ Links ]

33. Stamatakis D, Tsikoudis N, Micheli E, Magoutis K. A General-Purpose Architecture for Replicated Metadata Services in Distributed File Systems. IEEE Trans Parallel Distrib Syst [Internet]. 1 de octubre de 2017 [citado 3 de diciembre de 2018];28(10):2747-2759. Disponible en: Disponible en: http://ieeexplore.ieee.org/document/7917318 / [ Links ]

34. Sharma K. An alleviated model for private cloud deployment using VMware. En: 2017 International Conference on Information, Communication, Instrumentation and Control (ICICIC). 2017. p. 1-3. [ Links ]

35. Ceph. Users [Internet]. Ceph. 2019 [citado 20 de noviembre de 2020]. Disponible en: Disponible en: https://ceph.io/users/Links ]

36. HG Insights. Companies Using GlusterFS, Market Share, Customers and Competitors [Internet]. HG Insights. 2018 [citado 21 de abril de 2019]. Disponible en: Disponible en: https://discovery.hgdata.com/product/glusterfsLinks ]

37. FreeNAS. FreeNAS Storage Operating System | Open Source [Internet]. FreeNAS - Open Source Storage Operating System. FreeNAS. 2020 [citado 20 de noviembre de 2020]. Disponible en: Disponible en: https://www.freenas.org/Links ]

38. HG Insights. Companies Using Apache Hadoop HDFS, Market Share, Customers and Competitors [Internet]. HG Insights. 2018 [citado 21 de abril de 2019]. Disponible en: Disponible en: https://discovery.hgdata.com/product/apache-hadoop-hdfsLinks ]

39. iRODS. Open Source Data Management Software [Internet]. iRODS. 2020 [citado 20 de noviembre de 2020]. Disponible en: Disponible en: https://irods.org/Links ]

40. Openfiler. Openfiler | Open Platform Software Defined Storage [Internet]. Openfiler. 2020 [citado 20 de noviembre de 2020]. Disponible en: Disponible en: https://www.openfiler.com/Links ]

41. OpenStack. 2018 OpenStack User Survey Report [Internet]. OpenStack. 2019 [citado 21 de enero de 2019]. Disponible en: Disponible en: https://www.openstack.org/user-survey/2018-user-survey-report/Links ]

42. Proxmox. Features - Proxmox VE [Internet]. Proxmox. 2020 [citado 20 de noviembre de 2020]. Disponible en: Disponible en: https://proxmox.com/en/proxmox-ve/featuresLinks ]

43. Ceph. Welcome to Ceph - Ceph Documentation [Internet]. Ceph. 2018 [citado 28 de noviembre de 2018]. Disponible en: Disponible en: http://docs.ceph.com/docs/master/Links ]

44. Gluster. Overview - Gluster Docs [Internet]. Gluster. 2018 [citado 13 de abril de 2019]. Disponible en: Disponible en: https://docs.gluster.org/en/latest/Install-Guide/Overview / [ Links ]

45. FreeNAS. FreeNAS® 11.3-U5 User Guide - FreeNAS®11.3-U5 User Guide Table of Contents [Internet]. FreeNAS. 2020 [citado 20 de noviembre de 2020]. Disponible en: Disponible en: https://www.ixsystems.com/documentation/freenas/11.3-U5/freenas.htmlLinks ]

46. Gluster. Quick Start Guide - Gluster Docs [Internet]. Gluster. 2020 [citado 11 de enero de 2021]. Disponible en: Disponible en: https://docs.gluster.org/en/latest/Quick-Start-Guide/Quickstart/Links ]

47. FreeNAS. FreeNAS® 11.3-U5 User Guide - FreeNAS®11.3-U5 User Guide Table of Contents [Internet]. FreeNAS. 2020 [citado 11 de enero de 2021]. Disponible en: Disponible en: https://www.ixsystems.com/documentation/freenas/11.3-U5/freenas.htmlLinks ]

48. Ceph. Welcome to Ceph - Ceph Documentation [Internet]. Ceph. 2016 [citado 11 de enero de 2021]. Disponible en: Disponible en: https://docs.ceph.com/en/latest/Links ]

49. Cisco. Cisco Catalyst 2960-S and 2960 Series Switches with LAN Lite Software Data Sheet [Internet]. Cisco. 2019 [citado 27 de mayo de 2019]. Disponible en: Disponible en: https://www.cisco.com/c/en/us/products/collateral/switches/catalyst-2960-series-switches/product_data_sheet0900aecd806b0bd8.htmlLinks ]

1

Recibido: 28 de Agosto de 2020; Aprobado: 11 de Febrero de 2021

*Autor para la correspondencia: lilianrosa@tele.cujae.edu.cu

No existe conflicto de intereses entre los autores, ni con ninguna institución a la que cada uno está afiliado, ni con ninguna otra institución. Las opiniones expresadas aquí son únicamente responsabilidad de los autores y no representan la posición de la institución o las instituciones a las que están afiliados.

Lilia Rosa García Perellada: conceptualización, análisis formal, investigación y redacción - revisión y edición.

David García Díaz: análisis formal, investigación y software.

Arturo Nelson Díaz Crespo: análisis formal, investigación y software.

Alain Abel Garófalo Hernández: conceptualización y supervisión.

Todos los autores contribuyeron con las ideas que se plasman en el artículo.

a

Lilia Rosa García Perellada, Ingeniera en Telecomunicaciones y Electrónica, Master en Telemática, de la DISERTIC de la CUJAE, La Habana, Cuba. Líneas de investigación: centros de datos virtualizados y nubes privadas.

b

David García Díaz, Ingeniero en Telecomunicaciones y Electrónica, de la Empresa de Componentes Electrónicos “Ernesto Che Guevara”, Pinar del Río, Cuba, 12davideddyelina@gmail.com. Líneas de investigación: sistemas de almacenamiento.

c

Arturo Nelson Díaz Crespo, Ingeniero en Telecomunicaciones y Electrónica, de la DISERTIC de la CUJAE, La Habana, Cuba, arturodc@cujae.edu.cu. Líneas de investigación: sistemas de almacenamiento.

d

Alain Abel Garófalo Hernández, Ingeniero en Telecomunicaciones y electrónica, Doctor en ciencias técnicas, del Departamento de Telecomunicaciones y Telemática de la CUJAE, La Habana, Cuba, aagarofal@gmail.com. Líneas de investigación: redes de datos y servicios telemáticos.

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons