viernes, 30 de septiembre de 2016

ETHERNET: Las Pruebas Y.1564

Las redes Ethernet proporcionan hoy en día servicios sensibles y en tiempo real, estos servicios generan  varios tipos de tráfico que la red puede transportar Generalmente el tráfico de red se puede clasificar en 3 categorías: datos, tiempo real y alta prioridad. Cada tipo de tráfico es afectado de forma distinta por las características de red y tiene que ser conformado para cumplir con los objetivos
de rendimiento mínimos. Para asegurar la calidad de servicio (QoS), los proveedores tienen que configurar sus redes para definir como será priorizado el tráfico de la red. Esto se lleva a cabo asignando diferentes niveles de prioridad dependiendo del tipo de servicio y ajustando la configuración de la red con algoritmos de prioridad.
Las tramas ethernet se marcan en un campo específico para poder diferenciar el tráfico, y esto permite a los elementos de red diferenciar y discriminar el tráfico según la prioridad que tenga.


SLA (service-level agreement)

El acuerdo de nivel de servicio (SLA) es un contrato entre el proveedor de servicio y el cliente, que garantiza que se cumplirá un rendimiento mínimo para los servicios. Ejemplo de SLA






El tráfico del cliente se puede clasificar en 3 clases diferentes con su equivalencia de color: verde para tráfico garantizado, amarillo para tráfico en exceso y rojo para tráfico descartado.



El tráfico verde (CIR, committed information rate) se refiere al ancho de banda que está disponible
de forma garantizada siempre para un servicio específico y donde los KPIs (key performance indicators) se cumplen de forma garantizada.

El tráfico amarillo (EIR, excess information rate) se refiere al exceso de ancho de banda por encima
del CIR que puede estar disponible dependiendo del uso de la red, y donde los KPIs no están garantizados.

El tráfico rojo (descartado) se refiere al tráfico por encima del CIR o del CIR/EIR y que no puede ser transmitido sin descartar otros servicios. Es, por tanto, destruido



Los KPIs son características específicas de tráfico que indican el rendimiento mínimo de un tipo concreto de tráfico. Cuando el tráfico es verde, la red debe garantizar estos requerimientos mínimos para todo el tráfico. Los indicadores típicos KPI son: ancho de banda, retardo de tramas (latencia), pérdida de tramas y variación del retardo de tramas (jitter).



RFC 2544

La metodología de test que mas se usó para Ethernet fue la RFC2544. Esta serie de tests proporciona una metodología para medir el ancho de banda, la latencia de ida y vuelta, la pérdida de paquetes y las ráfagas. Se introdujo inicialmente como una metodología para testear dispositivos en laboratorio, pero como era el único estándar disponible, se usó también para testear servicios Ethernet en campo.

Aunque esta metodología proporciona parámetros clave para calificar la red, no es suficiente hoy en día para validar completamente los servicios Ethernet. Por ejemplo, RFC2544 no proporciona medidas de jitter, medidas QoS y niveles de servicio concurrentes. Además, el RFC2544 requiere
la realización de tests secuenciales para validar completamente el SLA, y esto puede llevar varias horas, cosa que consume tiempo y dinero a los operadores. Ahora existe un nuevo requerimiento, que es simular todos los tipos de servicios que funcionen en la red y que califiquen simultáneamente
todos los parámetros SLA para cada uno de estos servicios.

ITU Y.1564

Estas pruebas habilitan la completa validación de todos los parámetros SLA en un único test para optimizar la QoS. Al contrario que otras metodologías, permite multiservicios. De hecho, Y.1564 simula todos los tipos de servicio que corren en la red simultáneamente para calificar los parámetros clave del SLA para cado uno de estos servicios. También valida el mecanismo QoS provisionado en la red para priorizar los distintos tipos de servicios, dando lugar a una validación más exacta, y un despliegue y resolución de incidencias más rápido. Además, brinda resultados bidireccionales.

Y.1564 comprueba para cada servicio el nivel CIR (con el cumplimiento de los KPIs), el EIR, y el tráfico descartado.



Esto se realiza para cada uno de los servicios presentes en la red.




METODOLOGIA DE PRUEBA:
Consta de 3 fases:
Fase1: Prueba de configuración de servicios
Fase2: Prueba de perfomance de servicios
Fase3: Prueba de ráfagas


1. PRUEBAS DE CONFIGURACION DE SERVICIOS ( Prueba de Rampa)
Para cada servicio se utiliza la prueba de rampa alcanzando y excediendo gradualmente el CIR. Todos los indicadores KPIs son medidos y comparados con los umbrales establecidos.



2. PRUEBAS DE RENDIMIENTO DE SERVICIOS
Todos los servicios son generados a la vez a su CIR correspondiente, todos los indicadores son medidos para todos los servicios.



3. PRUEBAS DE RAFAGAS DE TRAFICO

Permite comprobar que los tipos de ráfagas esperadas puedan ser transmitidas con una pérdida mínima.
CBS:  Tamaño de ráfaga comprometida (Committed burst size): Número de bytes disponibles para las ráfagas transmitidas a tasas temporales por encima del CIR garantízado del SLA.

EBS: Tamaño de ráfaga en exceso (Excess burst size): Número de bytes asignados disponibles para las ráfagas enviadas a tasas temporales por encima del CIR + EIR.



• Se prueba individualmente en cada dirección para asegurar si la politica o mecanismo de conformación está configurado correctamente
• secuencia de descarga se puede repetir para el valor configurable por el usuario


TOPOLOGIAS DE PRUEBAS

1.Desde un extremo: Requiere un equipo de prueba en un extremo y en el otro se hace un bucle lógico con un equipo simple. Se obtiene la medida en solo sentido


2. Bidireccionales:  Requiere 2 equipos de pruebas. Se obtiene medidas en ambos sentidos




COMPARATIVO RFC2544 VS Y.1564


Comparación entre un test RFC2544 y un test Y.1564 para el mismo servicio.  Y.1564 es mucho más rápido.









jueves, 29 de septiembre de 2016

REDES HFC: Movistar Perú contrató a Huawei para desplegar red DOCSIS 3.1

Movistar Perú contrató  a Huawei para desplegar una red DOCSIS 3.1 –la primera de América Latina- para ofrecer servicios de ultra banda ancha. Movistar  planea tener una red convergente coaxial y de fibra al hogar (FTTH), con capacidades de descarga de hasta 1 Gbps.

El desarrollo actual consiste en la actualización de la red DOCSIS 3.0 de Movistar, que cruza más de 1,7 millones de hogares, además de construcción de la red FTTH.

Huawei proveerá una solución completa de red convergente, incluyendo acceso a la plataforma de cable. El sistema soporta descargas máximas e 10 Gbps y es compatible con el estándar DOCSIS 3.0

El tendido tendrá una administración centralizada que ayudará a la reducción de costos e integración de nuevos servicios de video basados en IP.



Huawei presentó D-CCAP con DOCSIS 3.1

Huawei ha presentado una demo con la tecnología DOCSIS 3.1 donde muestra su capacidad para la retransmisión de vídeo 4K a través de la red HFC (Fibra- coaxial), así como el aumento de la velocidad de Internet en redes de próxima generación como GPON/10GPON o DOCSIS 3.0 y 3.1.

Huawei mostró la facilidad de migración de un cliente de red de cable a red de fibra y  la herramienta de medición de la experiencia de usuario de vídeo uVMOS, desarrollada por Huawei.

La demanda de los clientes ha hecho necesaria una evolución de las redes que acerque cada vez más la fibra al hogar. En este sentido, la solución DOCSIS 3.1 de Huawei permite evolucionar las redes de cable de tal manera que cubran las necesidades de ultra banda ancha del consumidor final. Además, esta nueva solución permite a las redes de cable competir con las redes de fibra (FTTH).

En comparación con el estándar DOCSIS 3.0, la nueva versión aumenta la eficiencia en la transmisión de datos en un 50%, gracias al uso de técnicas mejoradas de transmisión de datos. Así, DOCSIS 3.1 permite velocidades  de hasta 2 Gbps en la subida de datos y 10 Gbps en descargas.

Huawei ha desarrollado una solución innovadora, denominada DCCAP o solución distribuida, que hace posible la coexistencia de las redes de cable y fibra (FTTH). La solución de cable D-CCAP de Huawei (soporta DOCSIS 3.0/3.1) proporciona banda ultra-ancha, siendo compatible el equipamiento actual de usuario. Por otro lado, permite la transformación digital de las redes tradicionales de cable (CMTS), reduciendo la tecnología analógica. Así, la arquitectura D-CCAP propuesta por Huawei permite coexistir redes de cable con redes FTTH en plataformas unificadas, lo que aumenta en gran medida la flexibilidad de las arquitecturas híbridas de fibra coaxial (HFC).

Huawei contribuye en la formulación y avance de los estándares industriales de las tecnologías de cable (DOCSIS), trabajando junto a la organización Cable Labs en el desarrollo de estándares de tecnologías de cable de próxima generación.


DOCSIS 3.1
Tiene como objetivo igualar al 10 GEPON
Para igualar la capacidad de 10 GEPon se requiere:
  - Incrementar el Downstream hasta 10 Gbps
  - Incrementar el Upstream hasta 1 Gbps
Para hacer esto es necesario:
-  Aumentar el ancho de banda de Downstream hasta 1 GHz
-  Aumentar el ancho de banda de Upstream hasta 200 MHz
-  Cambiar el Split del sistema de Subsplit a High Split
-  Aumentar el BW total del sistema hasta 1,2GHz o 1,5GHz
-  Usar esquemas de modulación mas eficientes Mayor cantidad de bits/seg por Hz: 4096 QAM (4K) -  Utilizar esquemas de transmisión mas robustos : OFDM
-  Aplicar mejores técnicas de corrección de errores

La incorporación de portadoras OFDM Docsis 3.1 requiere disponer de una porción mayor del espectro tanto para Downstream como para Upstream: Con Cambio del Split y Mayor ancho de banda llegando a 1200 MHz / 1700 MHz



La Transmisión en DOCSIS 3.1
Para obtener mayor eficiencia espectral Docsis 3.1 trabaja con modulaciones de mayor orden que son mas eficientes pero a la vez mas vulnerables al ruido e interferencia. Para mejorar la robustez se trabaja con OFDM y además se implementa  técnicas mas eficientes para la corrección de errores con LDPC ( Low Density Parity Code).



Docsis 3.1 abandona la canalización de 6MHz y 8 MHz para trabajar con técnicas OFDM en canales mas anchos. OFDM se basa en múltiples subportadoras ortogonales .



VENTAJAS DE OFDM (Orthogonal Frequency Division Multiplexing) 
- Múltiples sub-portadoras controladas independientemente y espaciadas 20KHz a 50KHz
- Mayor eficiencia espectral que channel bonding 
- LDPC permite operar en situaciones con peor relación señal a ruido (SNR)
- Permite romper con el ancho de canal de 6 MHz (TV analógica) y operar con canales de 192 MHz. 
- Fácil de implementar utilizando técnicas de transformada rápida de Fourier: FFT

a ) Multiples Sub-Portadoras
Cada portadora se controla independientemente
- Se enciendo o se apaga :  Evitamos operar en frecuencias altamente interferidas.
- Se ajusta independientemente el nivel: Permite operar al borde de la banda sobre el roll off
- Se ajusta el orden de modulación: Se adecua la modulación según la relacion S/N 


b) Mayor eficiencia espectral
Las subportadoras de OFDM se solapan entre si mejorando la eficiencia espectral comparada con el caso del channel bonding de varias SCQAM (Single Carrier QAM).



c) LDPC
LDPC ofrece una ganancia de aproximadamente 5 dB al operar con 256QAM. Permite acercarnos al máximo teórico impuesto por el Teorema de Shanon. 


d) Mayor Robustez
- En SCQAM los símbolos se envian secuencialmente con una tasa de bit elevada. 
       - Cada símbolo modula todo el canal = Suceptible ingress 
       - Periodo corto = Vulnerable frente al ruido impulsivo 
- En OFDM los simbolos se envian “en paralelo” trabajando sobre subportadoras individuales que operan a una menor tasa de bit.  
        - Subportadoras angostas = Robusto frente al “ingress”
        - Período largo = Robusto frente al “ruido impulsivo”



SNR:  La relación señal / Ruido

Comcast realizo estudios de la relación S/N de downstream sobre mas de 20 millones de CM.
- La relación S/N promedio resulto ser de 36 dB
- Docsis J.83 Annex B requiere 30dB para operar con modulación 256 QAM ( exigimos 33 dB)
- Esto responde a un esquema típico americano Nodo+5
- Con arquitecturas Nodo+0 se puede llegar a S/N de 40dB



- La modulación utilizada por Docsis 3.0 no permite aprovechar al máximo la capacidad disponible. 
- Docsis 3.1 implementa : 
     - Esquemas de modulación de mayor orden 
     -  Técnicas de corrección de error mas eficientes 
    -  Múltiples perfiles de modulación 
    -  Retrocompatibilidad con versiones anteriores 


ARQUITECTURA CCAP
La architectura CCAP ( Converged Cable Access Platform) de plataformas convergentes vino a integrar las plataforma independientes de CMTS,  Edge QAM,  OLT-GPON.


CCPA Remoto
Consiste en llevar una parte del CMTS al nodo óptico-eléctrico
 - El reemplazo de los laseres analógicos por digitales puede ayudar a mejorar la relación S/N y además  conseguir una redución de los costos.
 - Permite disminuir los  requerimientos de espacio y de energía dentro del  headend / hub.
 - La tecnológica permite la implementación de un canal de comunicaciones digital a partir del nodo 



Se pasa del CMTS integrado a 3  niveles de remotización : 

a)  Remote DAC/ADC : Solo lleva al nodo la conversión  analógica/digital y digital/analógica. Al digitalizar el vinculo headend-nodo mejora el MER y se dispone de mayor margen para incrementar el orden de modulación.
  


b) Remote PHY : Lleva al nodo toda la capa física de Docsis . También mejora el MER y se dispone de mayor margen para incrementar el orden de modulación.



c) Remote MAC : Además de la capa física lleva al nodo el control de acceso al medio. Según la version se ubica el upper layer MAC, la gestion y operaciones de nivel 3 en distintos lugares. 



Llevados al extremo los requerimientos de Docsis 3.1  obligaran a reconstruir nuestra red por el cambio del split  y el mayor ancho de banda exigidos.
- La principal limitación actual esta en la escasa capacidad de upstream que ofrece el split americano o subsplit. Aquellos que están operando con split europeo disponen de reserva adicional para poder operar hasta 8 Ch de upstream
- Aquellos que tienen una arquitectura nodo+0 podrán cambiar fácilmente el split y proteger su inversión:
         - Solo deberán cambiar los diplexores en el nodo
         - Los TX & RX de retorno normalmente operan hasta 200MHz
         - Los TX de retorno de tipo FP deberán cambiarse por DFB ya  que los FP son muy alineales y no soportan la carga de señales.
- Cuando la arquitectura de red tenga nodos muy grandes resultará necesario segmentar el nodo y también cambiar los activos. Se puede cambiar el split y llevar el ancho de banda a 1 o 1,2 GHz.
- En casos de un requerir upgrade importante o tener que reconstruir también debería evaluarse la alternativa de EPoC ( EPON over coax)

FIBER DEEP
En architectura de fibra profunda es posible utilizar segun las velocidad requeridas:
- Coaxial en ultima milla    DOCSI 3.1 con 5 Gbps / 1 Gbps por area  de servicio
- Coaxial en ultima milla    EPoC+DPoE con 5 Gbps / 1 Gbps por area  de servicio
- Fibra  en ultima milla    EPON+DPoE con 10 Gbps / 10 Gbps por area  de servicio

DPoE = DOCSIS Provisioning of EPON  y IEEE P1904.1 (SIEPON)


ANTECEDENTES

EVOLUCION DOCSIS




DOCSIS 3.0
Tiene como objetivo igualar la capaidad del GEPON con
- Bonding de 32 CH en Downstream. Ancho de bada ocupado=192 Mhz
- Capacidad de Downstream Modulación 256QAM .    32 x 42 Mbps =1344 Mbps
- Bonding de 4 CH en Upstream (Split USA) Ancho de banda ocupado ->24 Mhz (18-42 MHz)
- Bonding de 8 CH en Upstream (Split Europeo) Ancho de banda ocupado -> 48 MHz (17-65 Mhz)
 - Capacidad de Upstream     Modulación 64 QAM
         - 4 x 30 Mbps = 120 Mbps
        - 8 x 30 Mbps = 240 Mbps
Conclusiones:
Alcanza la capacidad de downstream de GEPON pero se comparte entre mas de 32 usuarios
La capacidad de upstream queda limitada por el Split.  El Split europeo duplica la capacidad disponible Relación de asimetría 5:1

Situación actual con Docsis 3.0
 - Downstream = Bonding 4 a 8 CH
 - Upstream     = Bonding 2 a 4 CH
Futuro cercano con Docsis 3.0:
- Downstream = Bonding 4 a 24 CH (máximo 32 CH)
- Upstream     = Bonding 4 a 8 CH (8 CH con split 65MHz)







ANTECEDENTES

Harmonic  líder mundial en infraestructura de distribución de vídeo, anunció en Enero 2014  NSG™ Exo, un dispositivo que habilita la implementación de una arquitectura de acceso distribuido (DAA - Distributed Access Architecture) por medio de redes coaxiales. NSG Exo, un sistema de plataforma de acceso de cable convergente (CCAP - Converged Cable Access Platform) distribuido, permite a los proveedores de servicios trasladar sus requisitos de distribución de RF de la cabecera o el núcleo para integrarlos más en la red, simplificando el diseño y la operación de la red para solucionar las limitaciones de alimentación y espacio, ofrecer flexibilidad en el servicio y reducir los gastos operativos y de capital.

NSG Exo es uno de los primeros productos del sector compatible con una arquitectura DAA. Este sistema preparado para CCAP, que admite las normas del sector, incluye las especificaciones DOCSIS/ EuroDOCSIS/J-DOCSIS CMTS y en breve incorporará también la capacidad edgeQAM universal.

Gracias al suministro de servicios de vídeo, datos y voz (triple play) a través de redes coaxiales mediante un solo dispositivo de bajo consumo, NSG Exo ayuda a los proveedores de servicios de cable y telecomunicaciones, y a los empresarios, a generar oportunidades de ingresos adicionales al acceder a una base de clientes aún sin explorar, como pueden ser los complejos residenciales, hoteles y campus universitarios.

“NSG Exo es el primer CMTS de Harmonic disponible en el mercado y es nuestra primera incursión en el mercado de DAA”, afirma Nimrod Ben-Natan, vicepresidente principal y director general de la unidad de negocios de extremo de cable en Harmonic.
 “NSG Exo complementa nuestra plataforma NSG Pro CCAP al ofrecer un nivel superior de flexibilidad, rendimiento de RF y ahorro de ancho de banda para implementaciones de fibra extensas, lo que sitúa a Harmonic como el principal proveedor del sector con una cartera de productos de extremo de cable que incluye soluciones de CCAP centralizadas y distribuidas. Los productos NSG, NSG Pro y NSG Exo de Harmonic se basan en el sistema operativo común CableOS de la empresa".

Al utilizar redes GigE, GPON o EPON, NSG Exo ofrece un rendimiento excepcional en el suministro de servicios de ancho de banda elevado a zonas densas de la infraestructura coaxial. Se obtienen importantes ahorros de gastos de capital, ya que ahora los operadores pueden usar un solo dispositivo para implementar servicios triple play de gran calidad a alta velocidad. El NSG Exo compacto reduce al mínimo los requisitos de espacio y alimentación en la cabecera. Su bajo consumo energético de tan solo 45 vatios permite un importante ahorro de costes operativos. Componente de una arquitectura de extremo flexible, en la que una red de acceso unificado simplificada permite a los operadores ofrecer servicios residenciales, comerciales e inalámbricos diferenciados en cualquier medio de acceso, el NSG Exo también permite seguir el ritmo de los requisitos empresariales y del sector en constante evolución, como la transición a DOCSIS 3.1.

NSG Exo puede integrarse con facilidad en la red del operador aprovechando el aprovisionamiento de back-office DOCSIS y los módems de cable DOCSIS. En principio, NSG Exo está disponible en un bastidor para interiores, en formato de chasis de 19 pulgadas con 1 unidad de rack (RU).

MICROSOFT: crea grupo de Inteligencia Artificial

Microsoft  anunció que ha formado el Grupo de Investigación sobre Inteligencia Artificial (AI & Research Group), que reúne a más de 5.000 científicos e ingenieros en torno los productos de IA de MS. El nuevo grupo será dirigido por Harry Shum, un veterano con 20 años en Microsoft, cuya carrera ha abarcado los roles de liderazgo a través de Microsoft Research y la ingeniería de Bing.

Microsoft señaló que busca la democratización de la Inteligencia Artificial (AI) para cada persona y organización, con el fin que sea más accesible y está tomando un enfoque con 4 ejes :

Agentes. Utilizar la IA para cambiar entre los humanos y la computadora a través de agentes tales como asistente digital personal de Microsoft Cortana.
Aplicaciones. Infundir con IA cada aplicación, desde la aplicación de fotos en los teléfonos de las personas a Skype y Office 365.
Servicios. Hacer que las capacidades inteligentes se infunden en las aplicaciones cognitivas de Microsoft, y que están disponibles para todos los desarrolladores de aplicaciones en el mundo.
Infraestructura. Construir la supercomputadora de IA más potente del mundo con Azure y ponerla a disposición de cualquier persona u organización para aprovechar sus capacidades

Cotizaciòn en NASDAQ



ANTECEDENTES

Nuevas herramientas para empresas

En el Convergence EMEA 2016,  Microsoft dio a conocer novedades en todas sus soluciones de negocio, desde la suite Office 365 para empresa, Dynamics CRM, las nuevas PowerApps y un conjunto demejoras en PowerBI, Azure, y el ERP Dynamics AX.

Office 365. Las novedades incluyen nuevas funcionalidades en Skype for Business dentro de Office 365, en concreto con un nuevo soporte para videoconferencias múltiples, la posibilidad de poder compartir documentos Office en línea y en tiempo real con los participantes en una conferencia y el poder retransmitirla en directo.

 Dynamics CRM 2016, disponible para implementaciones tanto online como on-premise y que incluye una mayor integración con Office 365 y más capacidades de uso móvil, por ejemplo,
con un uso más integrado con Outlook en el proceso de compras y pedidos online.

PowerApps es un nuevo servicio que permite a los empleados crear distintas aplicaciones, conectarse a los sistemas de negocio de una forma segura y compartir sus aplicaciones.

Preview de la Integración de Power BI con Cortana, que supone una mejora de Cortana
Analytics Suite y que permitirá organizar tareas de empresa de forma más proactiva y natural.

Power BI Quick Insights, una funcionalidad con la que los usuarios podrán ejecutar una variedad
de algoritmos para analizar y detectar patrones y tendencias en sus operaciones, que antes quedaban ocultos.

Azure IoT Suite recibe nuevas soluciones preconfiguradas para monitorizar y analizar datos
en tiempo real, y poder utilizarse para proporcionar cuadros de mando y visualizaciones precisas.

Preview Pública de Microsoft Dynamics AX, la solución Cloud ERP de Microsoft, que está
disponible para partners y usuarios desde  de diciembre 2015

Expansión de Microsoft Azure Certified for IoT, que permite la certificación y rápida implementación de plataformas, dispositivos y sistemas operativos basado en el Internet de las
Cosas, y ha dado a conocer la incorporación de nuevos partners a su plataforma.


MICROSOFT: Lanza 3 novedades en WPC 2015
Durante su Conferencia Global de Socios (WPC - Worldwide Partner Conference), el CEO de Microsoft, Satya Nadella  presentó 3 proyectos que tiene como objetivo reinventar la productividad y los procesos de negocio, construir la nube inteligente y crear una computación más personal


Proyecto GiJam
Brindará una forma nueva y sin precedentes para que las personas realicen sus tareas y puedan transformar los procesos de negocio, derrumbando las barreras entre los dispositivos, aplicaciones y las personas.

Esto permite a los ejecutivos reunir información de su línea de negocio y aplicaciones de SaaS, dividiendo espontáneamente la información específica y acciones necesarias para completar el trabajo, ayudando a mantener seguimiento de cada parte y llevarlo todo a un cierre inmediato.

Cortana Analytics Suite
Un conjunto de servicios administrados para ayudar a las empresas a transformar datos en acciones inteligentes. La creciente adopción de Machine Learning y Big Data, combinados con el poder de almacenamiento ilimitado y los servicios de cómputo en la Nube, presenta una oportunidad única para que las organizaciones anticipen lo que sucederá y automaticen los resultados de negocio.



Cortana Analytics Suite reúne la infraestructura tecnológica líder del mercado incluyendo Machine Learning, almacenamiento de Big Data y procesamiento con inteligencia perceptiva, tales como análisis de visión, rostro y habla, extendiendo las capacidades predictivas y prescriptivas para las empresas.

El servicio es de suscripción mensual e integra los servicios de Microsoft basados en la nube Azure HDInsight, Azure Machine Learning, y Power BI entre otros.

Cortana Analytics Suite, permitrá aumentar las capacidades predictivas de negocio de sus empresas usuarias en los diferentes escenarios de la industria. Igualmente analizará información proveniente de bases de datos estructuradas y no estructuradas, así como datos de dispositivos basados en el Internet de las cosas; datos que podrán ser organizados y visualizados de forma organizar los datos y comprenderlos mejor gracias al uso de la solución Power BI de Microsoft, que hace posible visualizarlos en formatos más sencillos de comprender.

También permitirá predecir eventos futuros al analizar datos actuales mediante la tecnología Machine Learning de Microsoft, de modo que una empresa podría saber, por ejemplo, si va a perder a un cliente.

Con este paso, Microsoft sitúa a su asistente personal digital a un nivel superior al enfocarlo también en entornos empresariales, adelantándose a otras compañías como Apple con Siri o Google con su Google Now.


HoloLens
El primer dispositivo holográfico en el mundo (sin cables) impulsado por Windows 10. Satya Nadella mostró cómo uno de los socios, Autodesk, usará HoloLens para cambiar fundamentalmente la manera cómo los profesionales de diseño puedan crear, comunicar, visualizar y trabajar



Capitalizaciòn
Ocupa el 3er puesto de las tecnológicas de USA




jueves, 15 de septiembre de 2016

SD-WAN: Redes de área amplia definidas por software

El despliegue de la tecnología SD-WAN ( redes de área amplia definidas por software) está creciendo en el mercado empresarial. De acuerdo con el último estudio Kable Global ICT Customer Insight realizado a más de 2.600 empresas en todas las regiones, el 54,5% de las organizaciones ya utilizan las SD-WAN.

Se espera que su adopción alcance el 58,4% en el 2018. Esta demanda está siendo respondida tanto por proveedores establecidos como por start-ups que ofrecen soluciones y servicios competitivos para la empresa, ya sea directamente o a través de distribuidores de valor añadido (VAR) o proveedores de servicios gestionados.

Según  Mike Fratto, director de investigación de Current Analysis, "los beneficios que las empresas obtienen con ella son enormes y abordan una serie de puntos críticos a los que se enfrentan las organizaciones con la conectividad WAN en remoto y para sucursales distribuidas".

Tener una variedad de opciones es beneficioso para las compañías, ya que, por una parte, pueden satisfacer sus necesidades con las capacidades del producto a fin de encontrar aquella solución que más se ajuste a sus requerimientos y, por otra, obligan a los proveedores a añadir o mejorar las funcionalidades de sus ofertas. Sin embargo, ofrecer esta variedad de opciones hace que competir por los clientes empresariales y proveedores de servicios gestionados sea más difícil para los vendedores.

Las cosas se complican en tanto los proveedores de servicios gestionados están basando sus servicios SD-WAN administrados en uno o más productos comerciales y añaden valor mediante la simplificación del ciclo de vida operativo para la implementación del producto, la integración de múltiples servicios, y la reducción de costes para las empresas.

"Los proveedores de servicios gestionados son tan importantes como la empresa cliente final y los proveedores de SD-WAN lo saben. Estos están haciendo hincapié en la integración de sus API y SDK y trabajando activamente para integrarse con portales de proveedores de servicios, OSS, y software BSS", dijo Fratto.

Las evaluaciones de productos SD-WAN de Current Analysis indican que existe en el mercado un posicionamiento muy competitivo y reñido de estas soluciones. Así, en esta primera toma de contacto con este negocio figuran Cisco IWAN, Nuage Networks Virtualized Network Services, VeloCloud Networks Cloud-Delivered SD-WAN, Versa Networks, y Viptela Secure Extensible Network. Current Analysis añadirá 6 vendedores más en la segunda mitad del 2016. Todas las evaluaciones de productos se actualizan cada 6 meses.


ANTECEDENTES

Riverbed Technology,  especializada en mejorar el rendimiento de las aplicaciones, presentó en Junio 2016 Riverbed SteelConnect, una solución SD-WAN (software-defined wide area network) .
 
Se trata de aportar a las redes una solución de gestión centrada en los aplicativos gracias a SteelConnect, para responder a las problemáticas de las empresas ofreciendo soluciones que garantizan las necesidades en términos de rendimiento y de agilidad de las aplicaciones. SteelConnect es el primer producto del mercado que consigue unificar la conectividad de red y la orquestación del despliegue de aplicación a través de redes WAN híbridas, LANs remotas y redes cloud como AWS (ya disponible) y Microsoft Azure (más tarde durante el año).

La solución incluye una gama completa de gateways WAN securizados, switches LAN y puntos de acceso Wi-Fi gestionados de manera central desde una consola cloud con una interfaz de usuario gráfica e intuitiva. Gracias a esto, SteelConnect consigue simplificar y racionalizar el diseño, despliegue y gestión de las redes distribuidas, permitiendo a las organizaciones modernizar sus arquitecturas de red para disfrutar de los beneficios de la transformación digital.

viernes, 9 de septiembre de 2016

BATERIAS para Móviles - su evolución

Las baterias para los equipos móviles han tenido una gran evolución en aspectos como la capacidad de almacenamiento en cada vez mas reducidas dimensiones y peso, asi como en el precio por unidad de energía almacenada.



ANTECEDENTES


CONSUMO DE BATERIA

Para lograr una mayor duración o autonomía de batería existen 2 criterios:
- Intentar no hacer muchas cosas al mismo tiempo: dado que nuestros móviles están compuestos de un gran número de componentes y tecnologías que necesitan su cuota de batería,
- Maximizar el uso de características poco exigentes y minimizar el de las muy exigentes.

La CPU y la conectividad GSM y WiFi son las  culpables de la baja autonomía de las baterías
 Es evidente que al jugar a juegos exigentes la CPU y la GPU agotarán más rápidamente la batería del móvil, pero también lo es el hecho de que tener permanentemente activada la conectividad WiFi si no la vamos a usar, porque los chips  necesitaban 1,4260W al escanear redes disponibles y tan solo 0,89W al hacer transmisión de datos. Si estamos conectados a la WiFi pero sin transmitir, el consumo baja a los 0,256W, lo que no es nada despreciable teniendo en cuenta que no la estamos usando.

Enviar datos consume más que recibirlos. En redes EDGE y WiFi 802.11g quedó demostrado que la eficiencia energética mejora más en la recepción que el envío en este dispositivo. El consumo energético de Bluetooth es "muy bajo",  pero  ZigBee era ultraeficiente y  podría combinarse con WiFi para sustituir esas conexiones a la hora de escanear redes disponibles por ejemplo.

La eficiencia energética de las tecnologías de conexión a redes móviles: LTE y sus iteraciones es más eficiente que anteriores soluciones, aunque eso depende también de factores como la banda de frecuencias usada o de la cobertura 3G o 4G que exista en la zona en la que nos encontramos.



Redes para menor consumo de baterías

La pantalla y el procesador son dos de los componentes del celular que más batería consumen, pero hay un tercero: la conexión de radio a la red.  Los celulares se comunican constantemente con la red celular y WiFi. Este diálogo permanente es el segundo mayor factor de consumo energético de los celulares.

Ciertas innovaciones recientes permiten mitigar la fuga de energía de los celulares. Algunos ejemplos son las pantallas de LED orgánico que no requieren de retro iluminación y los procesadores multi núcleo, capaces de activar y desactivar sus núcleos cuando es necesario.

Sin embargo, están siendo desarrolladas nuevas tecnologías que ayudarán a limitar el impacto de la conexión de radio en las baterías de los celulares.

Rastreo envolvente
El gran consumo de energía de LTE se explica en parte por su alta razón de potencia pico-promedio. La forma de onda de LTE se asemeja a la música clásica: largos momentos de calma marcados de crescendos. Y al igual que la música clásica, LTE necesita de un amplificador de alta potencia que capture esos picos y valles, en caso contrario la señal se distorsiona.
Los teléfonos celulares típicamente generan una amplia envolvente de potencia para cubrir los extremos de la forma de onda de LTE, pero por lo general la señal de LTE sólo necesita de una fracción de esa energía. Compañías como Nujira, Quantance y Qualcomm han desarrollado una tecnología llamada rastreo envolvente, que ajusta constantemente la energía amplificada del dispositivo a aquella que la señal LTE necesita en cada momento. El resultado es una conexión 4G mucho más eficiente en el plano energético, con ahorros de energía de hasta un 25%.

El rastreo envolvente está comenzando a ser incorporado en los smartphones, como las últimas generaciones de teléfonos Samsung Galaxy, iPhone y Nexus. Si bien no se trata de una funcionalidad a la que los fabricantes de estos dispositivos dediquen demasiada publicidad (no es fácil explicar en qué consiste), el rastreo envolvente tendrá un gran impacto.

Small Cells
La conexión de radio consume batería principalmente cuando está transmitiendo, enviando sus señales a la antena. Es decir que cuanto más lejos uno se encuentre de la torre de celular, mayor será el esfuerzo que el teléfono realice para que su señal sea escuchada. Para crear una red de celular eficiente en energía, lo ideal sería que cada dispositivo se encuentre a unos pasos de distancia de una torre.
Esto no es realmente posible en un mundo de grandes celdas montadas en edificios y altos mástiles, pero los operadores están comenzando a construir un nuevo tipo de red más densa utilizando small cells. Las small cells actúan igual que las macro celdas — transmiten las mismas señales y soportan la misma capacidad —pero cubren áreas mucho más pequeñas. Clusters de small cells podrían aportar enormes cantidades de capacidad a las redes.
Las small cells tienen además una ventaja adicional: acortan las distancias que las señales necesitan atravesar. Si en cada manzana de la ciudad hubiera una small cell, nuestros teléfonos enviarían sus señales a unos cien metros de distancia en lugar de a una torre situada a un kilómetro.

La tendencia es tener small cells distribuidas a lo largo y ancho de las ciudades. Por el momento, los operadores las están instalando en sitios estratégicos para incrementar la capacidad de red en áreas de mucha circulación, como plazas y centros comerciales. Sin embargo, ya se han efectuado algunos despliegues a gran escala. La compañía estadounidense Verizon, por ejemplo, está construyendo una red de 400 small cells en los corredores tecnológicos de San Francisco, donde la demanda de 4G es elevada. Al tiempo que el componente básico de las redes celulares disminuya en tamaño, aumentará la vida útil de las baterías.

EL COSTO DE LA RECARGA EN EL AUTO

John Bereisa, ingeniero estadounidense que trabajó para General Motors, se dio a la tarea de calcular el costo que representa cargar la batería del celular en el puerto USB del auto y su impacto en el medio ambiente.

Un smartphone conectado a Wi-Fi, necesita alrededor de 4.8 vatios de energía; para cada auto que rinda alrededor de 30 millas por galón de gasolina, representa una pérdida de 0.03 millas por galón. Si contamos que alrededor de 3,000 millones de millas se conducen al año en las carreteras de Estados Unidos, a una velocidad media de 30 millas por hora, el uso adicional de gasolina para el celular es de 100 millones de galones, esto es igual a 200 millones de dólares en costo. Tomando en cuenta que el galón cuesta dos dólares, se gasta alrededor de dos centavos por hora para cargar el dispositivo, es decir, un costo 33 veces mayor a cargarlo en casa.

 Con base en el cálculo de 0.03 millas por galón para cargar el teléfono, al año se emitirían casi 970 toneladas extra de dióxido de carbono en Estados Unidos.

El número de vehículos con puertos USB para carga de energía se elevó a 14.6 millones registrados el 2015 en Estados Unidos según datos de la consultora IHS.

jueves, 8 de septiembre de 2016

ANDROID TV: La plataforma MediaFirst TV de Ericsson

Ericsson se unió a Google para extender el alcance de su plataforma MediaFirst TV al ecosistema Android TV. De esta manera, la suite MediaFirst de Ericsson —una plataforma definida por software para la creación, preparación, administración y entrega de servicios de televisión paga— estará disponible en dispositivos con sistema operativo Android TV.

Con este acuerdo, los operadores de televisión paga podrán ofrecer servicios de TV, programación y aplicaciones en los televisores inteligentes y cajas con sistema operativo Android, sin necesidad de llevar a casa del cliente un set-top-box adicional.

La iniciativa facilitará las estrategias de los operadores en el camino hacia servicios de video bajo demanda (VoD). Para emprender este camino, los operadores deberán colaborar con compañías como Google, que con su sistema operativo Android ha logrado una buena parte del mercado de televisores inteligentes.

“Nuestro acuerdo con Google va a permitir a los operadores tomar ventaja de las posibilidades de monetización y oportunidades de asociación ofrecidas por Android TV, habilitándolos a entregar nuevas experiencias a sus audiencias gracias a la integración de servicios de TV paga con los servicios OTT y las aplicaciones de Android TV”, indicó Shiva Patibanda, jefe del negocio de plataformas de TV de Ericsson.

Una consultora señaló que 1 de cada 6 operadores de TV paga ha lanzado servicios OTT en América Latina, mientras que el 75 % tienen decodificadores IP y el 70 % introdujo servicios multipantalla.



SMART TV 2015

La Smart TV,  se usa no solo para ver los canales de TV libre o de paga, sino para  visualizar contenido online (internet), así como  películas de reproductores  o los videojuegos. Después de responder a esta pregunta podemos entrar en detalles.

Tipo de pantalla

Para una sala unas dimensiones aceptables pueden estar en torno a las 50 pulgadas, incluso menos si el sofá está a menos de tres metros. En cuanto a una tele de dormitorio, alrededor de las 32 pulgadas.

La mejor calidad de imagen la proporciona el LED. El plasma se dejará de producir y el LCD es de menor gama. Los costos de AMOLED como % del costo total se vienen reduciendo


Calidad de imagen

Según Cnet, el contraste real es uno de los aspectos más determinantes para desplegar una buena calidad de imagen. Esto se mide por la capacidad de un televisor para producir una sombra de negro profunda, diferenciada, mientras que la saturación del color, que depende de la anterior característica, también influye de forma considerable.
Para la resolución normalmente es suficiente con 1080p, 1080i o incluso 720p. Da igual sobre todo para ver la televisión (es difícil encontrar una emisión en alta definición real), para reproducir Blu-ray hay que subirse al carro de los 1080. Un televisor 4K hoy en día tiene muy poco contenido para ver.

Smart TV o accesorios

Hay que comparar si conviene comprar una smart TV con el componente ‘smart’ integrado. Samsung y LG, lo tienen integrado y ofrecen una variedad de aplicaciones de uso. Sin embargo, la madurez de este software y del entorno que lo contiene es escasa en comparación con la de otros terminales.
Existen numerosas opciones para convertir cualquier televisor en uno inteligente, mediante sticks para Android, conectar un módulo Raspberry Pi o un reproductor multimedia. En este caso hay que comparar si merece la pena o compensa adquirir un accesorio por separado. Si el televisor se  va a usar en videojuegos no tiene sentido una Smart TV, entre otras cosas porque las consolas de última generación incorporan su propio sistema con conexión a Internet.

Capacidad 3D

Actualmente ya existe un catálogo de películas amplio en 3D, aunque la oferta en televisión e incluso en videojuegos no acaba de despegar. Esto quiere decir que para aprovechar el efecto de las tres dimensiones será necesario comprar peliculas  en Blu-ray. Aparte de esto hay dos tipos de 3D: pasivo y activo. El primero es básicamente la tecnología que ofrecen los cines, mientras que el otro requiere unas gafas especiales  que se sincronizan con el televisor, con el fin de crear un efecto 3D de mayor resolución


MODELOS 2015

Hasta 2014 Samsung y LG han dominado el sector del Smart TV, el 2015 presentaron novedades:

Samsung Smart TV 2015: TIZEN
El Smart TV 2015 Tizen evoluciona el SmartTV de Samsung 2014. Samsung se acerca al webOS de LG eliminando las pantallas completas de iconos, lo que permite seguir viendo la TV mientras se consulta el SmartTV. También mejoran el touchpad. La velocidad de navegación ente aplicaciones es más rápida gracias a su Octa-Core (no en todos los modelos). En contenidos sigue siendo la número 1.  Vídeo Smart Tizen

LG Smart TV: webOS 2.0
El sistema Smart de LG 2014 ya era muy bueno pero demasiado lento. Este 2015 su aspecto se mantiene. Lo pero del webOs fué la velocidad que parecen haber mejorar hasta en un 60% este año 2015.  Vídeo Smart webOS

Panasonic Smart TV: My Home Screen 2.0 system
Lo mejor de My Home Screen es la posibilidad de personalización de la pantalla principal, el nuevo sistema se basa en Mozilla FireFox, y funciona bien con multitarea. Se asemeja mucho LG webOS y prometen que se ha mejorado el control por voz.
Vídeo Panasonic My Home Screen 2.0

Sony Smart TV: Android TV
Sony presenta su sistema de Smart TV 2015 basado en Android que permite acceder al Google Play, controles por voz, duplicar la pantalla del móvil Android, ... Casi todos los modelos inclyen el nuevo sistema de Smart TV. Android TV.  Vídeo Sony Android TV

miércoles, 7 de septiembre de 2016

INCLUSION FINANCIERA: Peru 8vo en Latinoamerica

El Perú avanzó once posiciones en inclusión financiera en los recientes cuatro años a escala global, situándose en octavo lugar en Latinoamérica y en la posición 68 en el mundo (de 137 países), según un estudio elaborado por el BBVA Research y divulgado por la Asociación de Bancos (Asbanc).

El estudio destacó el lanzamiento, en 2015, de la Estrategia Nacional de Inclusión Financiera (ENIF),  El BBVA Research afirmó que los sectores público y privado trabajaron concertadamente respecto a metas hacia el 2021, año del Bicentenario de la Independencia del Perú. Para alcanzar este logro, se tomaron en cuenta 7 áreas temáticas: pagos, ahorros, financiamiento, seguros, protección al consumidor, educación financiera y grupos vulnerables.

En febrero 2016 se puso en marcha la billetera móvil (Bim),  del proyecto Modelo Perú, iniciativa liderada por Asbanc y administrada por Pagos Digitales Peruanos (PDP). Con esta medida se espera beneficiar hasta 2021 a cerca de cinco millones de peruanos de menores recursos. Estas personas realizarán transacciones financieras mediante un celular, sin necesidad de emplear efectivo y ahorrar el tiempo de traslado hacia puntos de atención físicos, además de otros beneficios.

La última vez que se hizo una medición de este tipo fue en 2011, refirió el BBVA Research. De acuerdo con los mismos datos, el Perú aún está a media tabla a escala mundial y regional, pues persisten obstáculos percibidos por la población no incluida para acceder y usar los servicios financieros formales. Con un enfoque multidimensional que expone los puntos débiles del lado de la demanda, el BBVA Research ha identificado un punto de acción fundamental para reducir estas barreras: la educación financiera. Consideran que, expandiendo la educación financiera, se optimizará la participación de los peruanos en el sistema financiero.



PERU - ESTRATEGIA NACIONAL DE INCLUSION FINANCIERA

El estado peruano aprobó la Estrategia Nacional de Inclusión Financiera (ENIF) que trae compromisos que debemos conocer para asegurar que sea útil, que traiga crecimiento, más inclusión y menos desigualdad.

La ENIF trabaja sobre tres pilares: acceso, uso y calidad de los servicios financieros.



Para avanzar en ellos, se han identificado siete líneas de acción: financiamiento, ahorros, medios de pago, seguros, educación financiera, protección al consumidor y grupos vulnerables. Cada línea tiene detrás un grupo de trabajo para contribuir a lograr más acceso (oferta), más uso (demanda efectiva) y mejor calidad en los servicios.

La implementación de la ENIF involucra múltiples partes interesadas de más de un sector
económico, lo cual suma a otros desafíos en la gestión de la estrategia. A la luz de esta
complejidad, se ha considerado la creación de la Comisión Multisectorial de Inclusión Financiera
(CMIF), la cual es un órgano de coordinación, concertación y participación de los sectores público
y privado, que busca proponer el diseño y realizar el seguimiento de la implementación de la
Estrategia Nacional de Inclusión Financiera, estando conformada por el MEF, el MIDIS, MINEDU,
la SBS, el BCRP y el BN.


La ENIF cuenta con metas, planes de acción y responsables. Lo que nos permite saber a quién debemos preguntar por avances en cada tema. Por ejemplo, en su plan de monitoreo, señala que, al 2021 (año meta), el 100% de la población vivirá en distritos con presencia del sistema financiero, el 75% de los adultos tendremos al menos una cuenta en el sistema financiero, se multiplicarán por cinco los pagos electrónicos por habitante y el porcentaje de Mipymes con financiamiento se duplicará.

En el pilar de acceso, se identifican acciones para cada año. Para el 2015, con prioridad alta, se propone promover la ampliación de cobertura de servicios para que pueda instalarse el sistema financiero en todo el territorio, iniciar un proceso de digitalización de los pagos del gobierno y promover una red de comercios que usen pagos electrónicos y fomentar seguros agrícolas comerciales. Estas tareas prioritarias son lideradas por el MEF.

Sistema de monitoreo y evaluación (M&E): 



Objetivos de desarrollo sostenible 

Los Objetivos de Desarrollo del Milenio se establecieron en el año 2000 con el fin de alcanzar ocho objetivos de lucha contra la pobreza para 2015.  Un siguiente paso fue establecer Los Objetivos de Desarrollo Sostenible  en la Cumbre sobre el Desarrollo Sostenible en septiembre de 2015.

Las Naciones Unidas adoptó la Agenda 2030 para el Desarrollo Sostenible  con 17 objetivos de desarrollo sostenible (ODS o SDG). Estos objetivos buscan, principalmente, la erradicación de la pobreza, el cuidado del medio ambiente, la reducción de las desigualdades y el cierre de las brechas en el acceso a servicios que limitan el ejercicio de derechos y ciudadanía.
De los 17 SDG, hay, al menos, 4 en los que la inclusión financiera juega un rol muy importante. El primero de ellos, por supuesto ligado a la erradicación de la pobreza, el cuarto ligado a acabar con el hambre, el quinto relativo a la equidad de géneros y el octavo es sobre el crecimiento sostenible e inclusivo.

Mayor inclusión financiera permite a las personas conectarse mejor, protegerse ante emergencias y aprovechar más las oportunidades que se les presenta. Para lograr los compromisos asumidos con los SDG tenemos que lograr que la inclusión financiera actúe como una herramienta importante de desarrollo.

En el marco de la aprobación de los SDG, algunos países reforzaron su compromiso con la inclusión financiera. Perú, Tanzania y Sierra Leona, junto con la alianza Better than Cash y las Naciones Unidas, convocaron a un evento donde se enfatizaron sus compromisos y se invitó a más países a sumarse a los esfuerzos a favor de la inclusión financiera. Hay que trabajar globalmente para lograr que los 2 mil millones de personas adultas excluidas financieramente, básicamente mujeres, vean un cambio en sus oportunidades de desarrollo.

MICROSCOPIO GLOBAL

Según el Microscopio Global 2015 sobre la inclusión financiera. Dos tercios de los países estudiados mejoraron su entorno para la inclusión financiera durante el 2014. América Latina y el Caribe, y Asia oriental y meridional están empatados con los más altos puntajes generales, y los países latinoamericanos ocupan 5 de los 10 primeros lugares en función al puntaje general;

Los compromisos de los países, las nuevas iniciativas en materia de pagos electrónicos, y su creciente incorporación a los sistemas financieros de manera más formal están pavimentando el camino para la inclusión financiera en América Latina y el Caribe", dijo Sergio Navajas, especialista senior del Fondo Multilateral de Inversiones (FOMIN), miembro del Banco

El informe Microscopio Global 2015: Análisis del entorno para la inclusión financiera, fue producido por el Economist Intelligence Unit (EIU), en colaboración con el FOMIN, CAF-Banco de Desarrollo de América Latina, el Centro para la Inclusión Financiera en Acción y la Fundación MetLife. Esta es la novena edición anual del Microscopio, y la segunda desde que amplió su análisis más allá del sector de las microfinanzas para analizar un conjunto de 12 indicadores que miden los ecosistemas reguladores que apoyan la inclusión financiera en 55 países de todo el mundo.

Entre la información destacada de este año, relacionada con América Latina y el Caribe, se incluye:

La región de América Latina y el Caribe está en los primeros lugares en cuatro de los doce indicadores del Microscopio: regulación prudencial, regulación y supervisión de sucursales y agentes, reglas de conducta del mercado (protección al consumidor), y mecanismos de resolución de conflictos.

Los puntajes más altos de este año; Perú, Colombia y Filipinas, comparten características de condiciones clave para el éxito. Los 3 países cuentan con estrategias en curso para la inclusión financiera, tienen un enfoque integral que incluye múltiples servicios y múltiples proveedores, y están tomando medidas serias para modernizar sus sistemas de pago.



Colombia y El Salvador tienen el puntaje más alto a nivel global en regulación prudencial y ejemplifican la sólida base de los sistemas financieros de la región. En conducta del mercado, Bolivia y Perú son ejemplos globales en la creación de reglas del mercado que protegen al consumidor financiero y promueven la transparencia en la prestación de servicios financieros.



Adopción de pagos electrónicos por gobiernos

Economist Intelligence Unit (EIU) presentó los resultados del estudio sobre la adopción de los pagos electrónicos por parte de los gobiernos, titulado Government E-Payments Adoption Ranking 2011 (GEAR) y comisionado por Visa.

EIU define los pagos electrónicos como el intercambio o la transferencia de fondos mediante una plataforma electrónica. Estos pagos se pueden realizar a través de diversos medios tales como tarjeta de pago, depósito directo, débito directo y transferencia electrónica de fondos. Algunas de las tendencias y hallazgos clave del estudio incluyen:

-Los impuestos sobre la renta, los pagos de impuestos sobre las ventas y el impuesto al valor agregado (IVA), las contribuciones al seguro social, los peajes y las multas, son los tipos de pagos electrónicos más comunes que ofrecen las agencias de gobierno.
-Durante los últimos años los gobiernos han demostrado avances significativos en sus esfuerzos para promover los pagos electrónicos. Por ejemplo, en algunos países se ofrecen incentivos directos como tasas más bajas de IVA cuando se utiliza una tarjeta para pagar.
-Un 76% de los países que participaron en el estudio cuenta con sistemas de adquisición en línea que ofrecen diversos tipos de capacidades para ayudar al gobierno a facilitar y agilizar los procesos de compra con proveedores y negocios.

“La moneda digital ofrece beneficios esenciales a los gobiernos, permitiéndoles aumentar su eficiencia, promover la inclusión financiera e impulsar el crecimiento económico”, señaló Joseph W. Saunders, CEO y Presidente de Visa. “Actualmente, Visa cuenta con más de 5000 programas gubernamentales en 47 países.

Desde que se efectuó el estudio de 2007, se ha mejorado notablemente la infraestructura tecnológica, por ejemplo, en las áreas de telefonía móvil y banda ancha. Más de la mitad de los países incluidos en el estudio GEAR 2011 ha desarrollado la tecnología 3G y otras tecnologías de telefonía móvil, incluyendo la 4G.

La adopción de los pagos electrónicos por parte de los gobiernos se puede beneficiar de este desarrollo, ya que la conectividad –a través de diversos tipos de dispositivos– es el principal factor que habilita esta forma de pago.

Durante años, la falta de confianza ha sido una barrera importante para la adopción de pagos electrónicos al gobierno por parte de los ciudadanos. Este reto se está superando lentamente mediante la introducción de nuevos y mejores sistemas de seguridad para los pagos electrónicos y mecanismos de cumplimiento por parte de los gobiernos. Más de un tercio de los 62 países incluidos en el estudio GEAR 2011 recibió la calificación más alta posible por sus esfuerzos para promover la seguridad de los pagos electrónicos.

Ningún enfoque de la adopción de pagos electrónicos, en sí mismo, es universal. La investigación indica que diversos temas incidirán en la adopción de los pagos electrónicos, incluyendo:

-La inclusión financiera en los países en vías de desarrollo, recibirá un impulso cuando se introduzcan al mercado general los servicios de banca a través de dispositivos móviles.
-Con más de 5000 millones de usuarios de teléfonos móviles en el mundo, es probable que los pagos con dispositivos móviles aumenten considerablemente en los próximos años.
-La automatización de servicios estándar como el pago de impuestos y reembolsos y las contribuciones al seguro social,  tendrá mayor prioridad que otros servicios de pagos electrónicos.
-La seguridad de los pagos electrónicos es un tema importante que se debe considerar y será necesario desarrollar medidas de seguridad eficaces para que los pagos electrónicos puedan florecer.
-La colaboración del sector público y privado en las iniciativas de pagos electrónicos probablemente continuará a medida que los gobiernos tratan de lograr más con menos recursos.

Según Lucy Hurst, directora asociada de Investigaciones Específicas de Economist Intelligence Unit: "Existen dos tendencias clave que nos ha mostrado el estudio:
- Se ha mantenido el impulso en el desarrollo de los pagos electrónicos a pesar de la depresión económica y las medidas de austeridad fiscal.
- La tendencia general desde 2007 es que los gobiernos continúen comprometiéndose con el desarrollo de plataformas de pago electrónico. Hay más facilidad y eficiencia en la forma en que los ciudadanos y negocios realizan sus transacciones con el gobierno.