sábado, 28 de mayo de 2016

INTERNET: RINA el protocolo que quizo reemplazar a TCP/IP

El último reporte del proyecto IRATI (un año después de su fin) ha sido un documento presentado en la IEEE Communications Magazine,  acerca de los conceptos y trabajos experimentales realizados por el proyecto sobre el uso de RINA para simplificar las redes VM,



Para el investigador John Day,  la arquitectura de IPv6 es un parche sobre un parche ya que, aunque permite solucionar (temporalmente) el problema de la escasez de direcciones, sigue arrastrando todos los fallos, problemas y debilidades del protocolo IPv4.

El proyecto europeo IRATI, ha venido trabajando en la implementación eficiente de RINA (Recursive InterNetwork Architecture), la posible alternativa al actual protocolo TCP/IP desarrollado por el profesor John Day.



La arquitectura RINA se basa en la teoría de la computación distribuída. Dicha infraestructura permitirá crear una red de computadores mucho más sencilla y económica que la actual, así como mucho más fácil para construir y operar, proporcionando al mismo tiempo multi-homing, movilidad, multicast y calidad de servicio en los usuarios, así como una mayor fiabilidad y seguridad de las comunicaciones.

IRATI implementará la teoría de John Day sobre Ethernet para los sistemas Linux y FreeBSD, así como su código para facilitar estudios al respecto y para desarrollar futuros productos basados en RINA.

IRATI cuenta con un presupuesto con una parte subvencionados por fondos europeos. participarán en el proyecto conocidas empresas europeas como la italiana Nextworks, la belga iMinds e Interoute.


RINA
RINA (Recursive InterNetwork Architecture) es una arquitectura de red que trata de aplicar los principios generales de interconexión de procesos a las redes. Como tal, no trata de arreglar Internet con una capa más de parches sino que cambia su diseño de manera que esto permita superar las limitaciones actuales, haciendo que las conexiones entre redes sean más fiables, predecibles y baratas.

RINA se basa en el principio de que la asignación de direcciones y otros aspectos de las operaciones de red deben ser automatizados para minimizar los errores humanos y permitir un mayor grado de verificación y validación. Se trata de abordar la causa fundamental de los problemas, en vez de inventar otros caminos complejos para intentar evitar sus consecuencias.

Con RINA, no hay un espacio único y global de direcciones, hay un espacio de direccionamiento por capa – DIF en la jerga de RINA-. Así, una mala configuración administrativa se trata como un apagón de una capa o DIF, de manera que si se estropea definitivamente el enrutamiento en una capa, entonces, las capas de encima encontrarían una ruta alternativa tan rápido como lo permita la señalización.

La estructura propuesta por RINA escala de manera indefinida, lo que evita los problemas del crecimiento de las tablas de enrutado y ofrece soporte a la movilidad y el “multi-homing” de manera sencilla y prácticamente sin costes.

Además, el hecho de tener múltiples capas hace que no sea necesario “parar Internet” o tener un “flag day” para adoptar RINA cuando la tecnología esté lo suficientemente madura. La Internet actual se vería así como otra capa y por lo tanto RINA se desplegaría sin tener que cambiar nada en la actual Internet.


Principales ventajas de RINA vs TCP/IP
Hay bastantes diferencias a favor de RINA frente a TCP/IP.

TCP/IP no permite crear “inter-nets” sino solo una unión de redes IP a la cual se ha llamado Internet. Todas las redes comparten un mismo direccionamiento y un mismo método de enrutamiento. De aquí la falta de direcciones IP.
TCP/IP asume un modelo de comunicación entre máquinas cuando en una red de computadoras deberían basarse en computación distribuída, es decir, la comunicación debería realizarse entre aplicaciones independientemente de la máquina que lo ejecute.
En TCP/IP, cada nueva función que se añade acaba siendo un protocolo nuevo que interacciona con los protocolos existentes de una manera inesperada. La falta de estructura y de una buena teoría sobre cómo se relacionan hacen que las redes de hoy en día sean muy complejas de operar e imprevisibles.
Dichos problemas son los que trata de solucionar RINA ya que nos proporciona una mayor simplicidad y predictibilidad a la hora de operar en una red.

Actualmente, para contactar con una aplicación hay que saber dónde se encuentra (la dirección IP). Con RINA es indiferente su situación mientras se conozca el nombre de la aplicación. Es la red quien se encarga de localizarla, lo cual nos permite una mayor movilidad.
RINA nos permite decir a la red qué requisitos queremos usar para una determinada comunicación. Con el actual Internet sólo podemos elegir si queremos utilizar TCP o UDP para comunicarnos, pero no podemos elegir el ancho de banda que utilizaremos para dicha comunicación si el ping máximo que permitiremos.
En el actual Internet, para encontrar una aplicación debe estar en la misma red que quien la busca. En RINA no tiene por qué ser así. RINA necesitará una red que una ambas aplicaciones, pero dicha red no tiene por qué existir a priori, se puede crear más adelante. A través de otras redes que permitan su unión.
RINA permite gestionar qué redes serán visibles para cada aplicación. De esta forma podemos tener una red segura para trabajar con nuestras cuentas bancarias y otra red para utilizar un chat y otra para descargar archivos, totalmente aisladas. El usuario podrá usar un ISP para unas acciones y otro para otras, suponiendo que unos ofrezcan mejores prestaciones que otros.
Como podemos ver, RINA ofrece muchas mejoras tanto de rendimiento cómo de funciones frente al actual TCP/IP. Puede que RINA sea una solución a largo plazo, pero la verdad es que lo tiene complicado para sustituir al actual protocolo, ya que está totalmente extendido por todo el mundo y todas las aplicaciones trabajan con él.

ENRUTADO BGP

En la internet actual hay problemas que tienen su origen en el BGP (Border Gateway Protocol ) Todos los proveedores de acceso a Internet tienen routers, elementos de red cuya función es encontrar un camino para hacer llegar la información de un punto de Internet a otro. Pero Internet es una maraña de incontables millones de rutas posibles, por lo que para ir encontrando el camino para los datos, los routers tienen un registro donde se van almacenando las rutas más fiables. Este registro es, en esencia, una gran lista donde se guardan las rutas junto con el grupo de direcciones IP a las que dan acceso. Esto es lo que se denomina “tabla de enrutado BGP” y esta es la forma en la que es posible enviar información de un punto de Internet a otro, a través de las redes de diferentes proveedores

TV de Paga: Crece share de audiencia según LAMAC

De acuerdo con un análisis realizado por LAMAC (Consejo Latinoamericano de Publicidad de Multicanales)  la audiencia de TV de Paga sigue creciendo claramente, mientras la TV Abierta muestra un decremento en una tendencia en Latinomerica.  Presentamos los datos de Colombia y México.



En México


Fernanda Campos, Country Manager de LAMAC para México dijo, “El crecimiento de TV de Paga es una tendencia que ha sido constante en los últimos años y que ha sido apoyada recientemente por la entrada de la nueva tecnología digital”.  “Los consumidores prefieren medios que les llegan de una manera más personal y las cifras de audiencia demuestran que los medios de legado ya no llegan a la audiencia con el impacto de antaño. Este nos es un asunto menor cuando se analiza a la luz de las negociaciones publicitarias. Medios que cada vez pierden más audiencia no pueden imponer sobre los anunciantes incrementos en tarifas publicitarias. Es momento que los anunciantes se muevan a medios donde si pueden encontrar a sus consumidores y en donde la rentabilidad de las campañas es mucho mayor".




ANTECEDENTES

En el 2014 Kantar adquirió la participación mayoritaria de IBOPE, la empresa líder de medición e investigación de medios en Latinoamérica
Kantar Media se consolida como el líder en medición de Audiencias de Televisión en 48 países

Kantar, la división de WPP que se encarga de la gestión de datos y uno de los mayores grupos de conocimiento, información y consultoría de datos del mundo, adquirió la participación mayoritaria y el control de IBOPE Media. Esta adquisición refuerza la relevante presencia y experiencia global de Kantar Media, en todos los aspectos de la medición y evaluación de medios y permitirá a Kantar una mayor relación con los medios y una mejor adquisición de datos en la región.

El CEO de Kantar Media, Andy Brown dijo “Kantar Media y IBOPE Media han trabajado juntos durante 17 años. Es el momento adecuado para incrementar nuestra presencia y acelerar el intercambio de tecnologías y ofertas con el negocio de Kantar Media.

Kantar Media ha extendido su alcance global y su capacidad de medición a través de la adquisición de compañías como Data Republic, Precise, el servicio de Audio Watermarking de Civolution y  Rentrak, especialista en la medición de audiencia de televisión en Estados Unidos


CHILE

Los canales de televisión locales estarían evaluando poner término a una tradición que se extiende por más de dos décadas: la medición de su audiencia. Esto, porque las emisoras están evaluando volver a licitar este servicio, con el objeto de conocer las potenciales ofertas de nuevos proveedores, lo que podría poner fin al contrato que mantienen con Time-Ibope, sociedad que en 1991 se adjudicó la primera licitación internacional que hicieron los canales.

El economista Elías Selman,en 1991, con el objetivo de participar en una licitación, fusionó la entonces Time Research con la firma brasileña, operación que lo dejó con el 15% de la propiedad de ésta 

La relación entre la firma creada por Selman y los canales locales se remonta a 1986, cuando Time Research comenzó la medición manual de la sintonía utilizando cuadernillos.
Luego, en 1991, tras la primera licitación, que entre otras cosas implicó la adopción de un sistema electrónico de conteo y la estandarización del proceso, la relación continuó, pero con la firma fusionada, la que desde ese momento estableció un sistema de medición a partir de una muestra de 600 hogares.
La brasileña Ibope Media,  a inicios de la década del '90 se asoció con el grupo chileno Time.
Kantar que es una filial del grupo inglés de comunicaciones WWP, tiene presencia en cien países y realiza investigaciones en diversas áreas de negocios, incluso con una división específica sólo para el mercado japonés.



MOVILES: Alcanzó 7,400 millones de suscripciones

Según  informe de  'Mobility Report' de Ericsson, durante el primer trimestre de 2016 las suscripciones móviles en el mundo alcanzaron los 7,400 millones, un crecimiento de 3% con respecto al 1T-2015. Ello se debió a que durante el trimestre se sumaron un total de 63 millones de nuevas conexiones.

Ericsson añade que las suscripciones de smartphones continuaron en aumento y se prevé que superarán al número de teléfonos convencionales durante el tercer trimestre del 2016.







El estudio indica que la cifra global de suscripciones móviles se incrementa  un 3% cada año, siendo India el país que registró el mayor aumento en el último trimestre de 2015 (21 millones más), seguido de China (6 millones) y Estados Unidos (5 millones).



SMARTPHONES
El mercado mundial de smartphones creció 0.2 % anual al primer trimestre del 2016 para un total de 334.9 millones de unidades enviadas, provocado  por cierta saturación de smartphones en mercados desarrollados, así como un menor desempeño de los líderes Apple y Samsung.


IDC señala que el mayor cambio en el mercado fue la adición las marcas chinas OPPO y vivo, que se colaron al Top 5 de fabricantes, lo que dejó fuera a los rivales Lenovo y Xiaomi. A medida que el mercado de China madura, el apetito de los teléfonos inteligentes se ha desacelerado drásticamente



A Dic. 2005 los smartphones representaron el 75% de todos los teléfonos móviles vendidos en el 4T-2015, un 5% más que en el 4T-2014. El 45% de todas las suscripciones móviles van ligadas a smartphones.






Tráfico de datos móviles aumentó un 65% entre el cuarto trimestre de 2014 y los tres últimos meses de 2015 y Ericsson prevé que crezca a un ritmo anual de 45% hasta 2021, es decir, diez veces más.
Uno de los factores que está detrás de este incremento es el repunte de las suscripciones de smartphones, sobre todo LTE, y el consumo de datos por suscriptor LTE. De hecho, el tráfico de datos móviles añadido en 2015 (20 exabytes) equivale a tres largometrajes descargados por cada línea de teléfono inteligente.

BAM: El número de suscripciones de banda ancha móvil sigue creciendo un 25% anual y que sólo en el cuarto trimestre de 2015 hubo 200 millones más. Las líneas con tecnología LTE ya ha llegado a los 1.000 millones al sumar 160 millones en el último trimestre de 2015.

USO: Hay más personas que se comunican usando texto que con llamadas de voz y más del 70% de los propietarios de smartphones afirmen compartir fotos personales con regularidad y que un 46% esté activo en más de una red social.

Redes Sociales: En los próximos seis años el tráfico mundial acumulado en las redes sociales será de unos 180 exabytes, lo que equivale a que cada habitante de la tierra pase 35 minutos diarios en redes sociales o vea más de 200.000 millones de fotos todos los días.

QoE: Estrés por lentitud
El Mobility Report ha analizado el impacto que tienen los distintos niveles de rendimiento de la red en los usuarios de smartphones y su percepción sobre operadores móviles y proveedores de contenido digital.

En concreto, apunta que, mediante tecnología aplicada a la neurociencia, se han medido objetivamente respuestas emocionales a diversas experiencias relacionadas con smartphones, un estudio que ha arrojado que el retraso en la descarga de páginas web bajo presión del tiempo provocaba que la frecuencia cardíaca de los usuarios aumentara en un 38% de media.

Retrasos de 6 segundos en el streaming de un vídeo causaba un aumento del 33% de los niveles de estrés, lo que equivale a la ansiedad que produce un examen de matemáticas o ver una película de terror e incluso mayor que el estrés que causa estar al borde de un precipicio. "Una vez que empieza el vídeo, una pausa adicional hace que los niveles de estrés se incrementen drásticamente", agrega.

El índice de satisfacción de un cliente hacia un operador aumenta "significativamente", en 4,5 puntos, si se asociaba con una experiencia sin retrasos. Por el contrario, disminuía en cuatro puntos de media si había retrasos moderados en la descarga o al retomar la reproducción.

Es interesante el hecho de que los retrasos moderados produzcan un doble efecto negativo para los operadores: "menor vinculación con su marca y mayor vinculación con sus competidores.








LAPTOP

En relación a computadoras portátiles, en Estados Unidos se vendieron más Chromebooks, de Google, que Macs, de Apple, durante el primer trimestre de 2016, según IDC. Google vendió 2 millones de unidades frente a los 1.76 millones de Macs.

Aunque las primeras ventas de Chromebook (cuando salieron en 2011) fueron muy bajas, al venderse sólo 400,000 en Estados Unidos en los primeros meses de 2012 y 1.76 millones en el mismo periodo del año 2013, su éxito en los últimos tres meses de 2016 se debe al mercado de la educación, ya que programas escolares ven atractivamente los bajos costos de las laptops de Google.

Sin embargo, Google y Apple no están realmente en competencia directa, pues Google no fabrica la mayoría de las laptops, ni saca provecho de sus ventas, por ejemplo, Google obsequia Android y Chrome OS a los fabricantes para instalarlos sin costo alguno.



RANKING DE SISTEMAS OPERATIVOS





LATINOAMERICA









La calidad de los servicios de telecomunicaciones de KPIs a KQIs

En los últimos meses hemos visto numerosas iniciativas para llevar adelante monitoreo de calidad de servicio ( Brasil, Chile y Bolivia) como de regulaciones que establecen parámetros mínimos de calidad que deben cumplir los operadores. Los operadores indican que se hace difícil garantizar mínimos de calidad en servicios móviles.

La estrategia regulatoria tiene varias aspectos: desde la creación de un marco normativo, hasta la supervisión, la difusión de información, las mediciones de calidad de servicio, educación al consumidor y hasta la instalación de sitios para resolver reclamos en última instancia administrativa.
Superadas estas barreras , la mirada recae ahora no solamente en la calidad de servicio (QoS), sino en la calidad de experiencia (QoE) que los usuarios tienen del servicio.

La calidad no sólo se puede medir por parámetros técnicos, sino que es necesario conjugar mediante mediciones cuál es elgrado de satisfacción que tienen los usuarios sobre los servicios de telecomunicaciones. Esto no sólo incluye parámetros técnicos como velocidad de conexión, cobertura y disponibilidad de servicio, sino que también incorpora cuestiones más subjetivas como calidad de la atención al público.

Los proveedores de equipos de medición y optimización de red ahora también ofrecen equipos orientados a mejorar no solo la calidad del servicio, sino la experiencia del usuario. Es decir pasar de los Key Performance Indicators (KPIs) del desempeño de la red, hacia los Key Quality Indicators (KQIs). Por lo que la adopción de nuevos parámetros no vendrá sólo de los reguladores, sino que los operadores parecen haber entendido que ellos también deben mejorar, por su propio bien, la experiencia del usuario.




ANTECEDENTES

Metas y áreas claves de Conectividad al 2020 según GSMA

La conectividad móvil está aportando grandes beneficios en términos de desarrollo socio-económico en todas las regiones del mundo. La tecnología móvil universalizó los servicios de comunicaciones de voz y lo hará con los servicios de Internet, contribuyendo a cerrar la brecha digital. Al mismo tiempo, está brindando grandes posibilidades de desarrollo y productividad a todos los sectores de la sociedad. En los próximos años, se ofrecerán una serie de servicios innovadores a través delecosistema móvil que conectarán al mundo físico y digital para mejorar la calidad de vida de las personas y la productividad de las empresas. Los beneficios de la conectividad móvil se expandirán más allá de la comunicación y brindarán mejoras radicales en sectores como el energético, seguridad, salud y educación.

Con más del 90 % de cobertura 2G en la mayoría de los mercados, según GSMA se llegará pronto a las 7,000 millones de conexiones , se tuvo 3,600 millones de suscriptores únicos en 2013. Los operadores móviles siguen expandiendor la cobertura 3G y ahora 4G LTE. Sin embargo, todavía hay un sector de la población que no accede a los servicios (países en desarrollo y en áreas remotas).

METAS PARA EL 2020

La GSMA se ha planteado grandes metas o big goals para 2020:


    Conectando a todos. Conectar 1,000 millones de personas más a Internet a través del móvil.

    Movilizando todo. Agregar 5 mil millones de dispositivos conectodos  (Internet de la cosas)

    Personalizando a todos. Que la tarjeta SIM (chip) sea el  medio de autenticación digital segura de alrededor de 2 mil millones de usuarios.

AREAS CLAVES

La GSMA identificó 4 áreas prioritarias en las cuales la industria móvil puede aportar un valor enorme para lograr la evolución de la economía digital.

    Personal Data: Establecer a los operadores como los guardianes de los datos de los usuarios a través de soluciones de identidad digital que sean interoperables y que aprovechen la simplicidad del número de teléfono móvil para permitir el acceso individual a una amplia gama de servicios online.

    Vida Conectada: los operadores móviles apoyarán la transformación hacia la movilidad de las industrias adyacentes, permitiendo una amplia gama de nuevos dispositivos conectados y servicios innovadores en salud, transporte, servicios públicos y educación.

    Comercio Digital: los dispositivos móviles y las billeteras digitales estarán en el centro del ecosistema de comercio digital, habilitando una serie de servicios de pagos seguros y servicios de dinero móvil interoperables a nivel global en los mercados en desarrollo.

    Red 2020: las redes móviles serán el corazón de una era all-IP de banda ancha, lo cual generará servicios de comunicación basados en IP seguros, inteligentes e interoperables.

La GSMA trabajará con sus operadores miembros y todo el ecosistema móvil para poder alcanzar las metas  de modo de generar nuevas oportunidades de crecimiento y valor agregado y seguir expandiendo sus externalidades positivas.

Personal Data

En febrero 2014 lanzó GSMA Mobile Connect, un servicio que les ofrece la autenticación basada en el número del teléfono móvil que respeta por completo su privacidad online. De esta forma, los consumidores no necesitarán más crear y gestionar múltiples nombres de usuarios y contraseñas ya que la identificación se desarrollará utilizando la información contenida en la tarjeta SIM.
Los operadores móviles son los adecuados para aportar capacidades de autenticación para permitir que los usuarios, empresas y gobiernos puedan interactuar y acceder a distintos servicios en un contexto privado y seguro.

Vida Conectada
El Internet de las Cosas (IoT), o Vida Conectada, promete una revolución en la calidad de vida de los usuarios y en la productividad de las empresas. La Vida Conectada ofrecerá una gran oportunidad con más de 25 mil millones de dispositivos conectados que transformarán los distintos sectores de la economía con soluciones de salud, educación, transporte y ciudades inteligentes, entre otros.

Los operadores móviles necesitan aumentar la eficiencia de las redes para soportar la enorme cantidad de nuevos dispositivos. En el largo plazo, necesitamos definir cómo evolucionarán las redes y la capacidad de los operadores. GSMA acordará la definición del Embedded SIM y  remover las barreras regulatorias que puedan frenar este crecimiento.

Comercio Digital

La combinación de las tecnologías móviles y tecnologías contactless (sin contacto)  permitirá una amplia serie de servicios en pagos, entradas, accesos y cupones. Todo soportado por billeteras digitales seguras e interoperables.
Los operadores móviles desarrollarábn billeteras móviles que puedan agregar y gestionar múltiples servicios de comercio digital. Pero los operadores son sólo un eslabón del ecosistema del comercio digital y debemos nutrir las relaciones con bancos, retailers y las autoridades de gobierno nacionales y locales, entre muchos otros, para entregar soluciones que se enfoquen en las necesidades de los usuarios.

Red 2020
Los operadores móviles deberán invertir en nuevas funcionalidades de red y en la entrega de servicios IP nativos e interoperables como VoLTE (voz sobre LTE) y Rich Communication Services (RCS).

A mediados del 2014, las conexiones LTE alcanzaron los 300 millones o 3% de las conexiones globales. En 2020 LTE representará más de 25 % del total de conexiones móviles en todo el mundo.

GSMA apoya el desarrollo de redes móviles all-IP que son más inteligentes y dinámicamente configurables, permitiendo soportar la gigantesca demanda de tráfico y brindando una experiencia óptima a los usuarios. Se quiere así evitar la fragmentación, garantizar la interoperabilidad de los servicios y generar nuevas oportunidades de negocios.

MARCO REGULATORIO  PARA LA INDUSTRIA MOVIL
Para poder concretar todas estas iniciativas la industria va a necesitar un ambiente regulatorio que la apoye y acompañe en la transformación.

Es importante crear un clima pro-inversión que, habilite el crecimiento de los servicios móviles. GSMA coordina con todos los actores clave del ecosistema móvil para construir una agenda donde los diferentes intereses estén alineados y encuentren la mejor forma de colaborar entre sí. Incluso en mercados donde la competencia es muy alta, la industria móvil puede y debe trabajar mancomunadamente en temas donde los intereses son compartidos.

Se necesita un marco regulatorio con igualdad de condiciones para todos los jugadores. Esto da mejores señales para la inversión y habilita la posibilidad de competir donde todos los actores cuentan con las mismas reglas.

En conclusión, para hacer realidad el potencial de la industria móvil para impulsar el desarrollo social y económico de la región y el mundo, se requiere un régimen regulatorio transparente que lo apoye. El crecimiento  provendrá cada vez más de la banda ancha móvil (BAM) y los nuevos servicios y aplicaciones que mejorarán la productividad, brindarán empleo y cerrarán la brecha digital. La industria móvil potenciará el crecimiento de las economías y permitirá que se alcancen los objetivos sociales de los gobiernos.


Velocidad (Mbps) según tipo de red conectada a tu celular

Cuando usas tu celular este se conecta a una antena del Operador móvil la cual puede ser de alguna de las diversas tecnologías que ha ido instalando a lo largo de la evolución tecnológica. El tipo de red al cual estas conectado es mas probable que varie cuando te estas desplazando en un vehículo. Para saber el tipo de red y su velocidad de descarga debes observar la letra en la parte superior derecha de la pantalla.

Empezaremos la descripción de las redes de menor a mayor velocidad

G:    GPRS,         2 G         64 Kps,  picos a 144 Kbps
E.    EDGE       2.5G        128 Kbps, picos a 256 Kbps
1X   CDMA   2.75G        256 Kbps, picos a 512 Kbps
3G   UMTS        3G         256 a 512Kbps, picos hasta 2 Mbps
H      HSPA        3G+       2 a 5 Mbps,  picos de 10 Mbps
H+    HSPA+   3.5G        3 a 8 Mbps, picos hasta 28 Mbps
4G     LTE           4G        8 a 30Mbps, picos hasta 90 Mbps


La velocidad real depende de varios factores: La capacidad del terminal móvil, la tarifa contratada, la cobertura y la demanda total en el punto de uso. Tendrán mayores probabilidad de obtener mayores velocidades al usar un smartphone de alta gama, con una tarifa de alta velocidad y descarga.
Debido a que VoLTE es costoso, un  celular 4G operará solo en esta banda cuando descarga datos, cuando recibe una llamada (voz)se pasa a la banda 3G y si esta ocupada a banda inferiores disponibles.

miércoles, 25 de mayo de 2016

IBM: Ofrece Computación cuántica en la nube

IBM lanzó IBM Quantum Experience, una plataforma en la nube que permite experimentar con un procesador cuántico. Cualquiera pueda aprender y experimentar con el procesador cuántico.

Aún no se ha logrado construir un computador cuántico (solo hay prototipos), pero IBM asegura que la computación cuántica "ha pasado de ciencia a convertirse en una área de ingeniería" y que ya se ha iniciado la senda que llevará, en pocos años, a la construcción de esa computadora funcional.

IBM Quantum Experience, es una plataforma en la nube conectada a la web para que cualquiera que lo desee pueda experimentar con un procesador cuántico: aprender a programar, crear y probar algoritmos.

La computación clásica está basada en bits,y la computación cuántica, que aplica los principios de la mecánica cuántica, está basada en qubits, que no solo pueden ser ceros y unos, sino ser un 0 y un 1 a la vez, lo que da mayor velocidad de procesamiento. Además, esta trabaja en paralelo, de manera que puede resolver un número exponencial de tareas a la vez: una PC normal lo hace secuencialmente, primero resuelve un problema, luego otro y así sucesivamente.

En la Quantum Experience, cuyo acceso es gratuito, se pueden hacer simulaciones con un procesador de cinco qubits: "Cuando lleguemos a 50 qubits entraremos en un nuevo territorio.

El nivel de complejidad de esta computación es "muy elevado",  ya que "no es muy intuitivo" porque "pasan cosas extraordinarias" y además la información cuántica es "muy frágil".  Es necesario aislarla en un frigorífico a muy baja temperatura para preservar sus propiedades cuánticas. Un proceso "muy delicado".

Para el vicepresidente de IBM Research, la apertura de la Quantum Experience es un primer paso hacia ese hito. Son más de 20.000 las personas que se han sumado ya a la plataforma.

Las primeras aplicaciones de la computación cuántica serán industriales: simulación y modelado de materiales y desarrollo de nuevos fármacos. La computación cuántica también será útil para la optimización de algoritmos y para el encriptado de información.


KiloCore, el primer procesador con 1000 núcleos

La Universidad de California  en colaboración con IBM ha desarrollado un chip llamado KiloCore, con 1,000 procesadores capaces de trabajar en paralelo, con un consumo mínimo.  Es capaz de ejecutar1.78 billones de instrucciones por segundo y contiene 621 millones de transistores. Ha sido fabricado usando la tecnología CMOS de 32 nanómetros de IBM.
Hasta ahora la CPU multiprocesador más grande poseía cerca de 300 procesadores.

Cada core puede funcionar a una velocidad media de 1.78 GHz, y tienen la particularidad de que pueden intercambiar datos entre ellos sin recurrir a memoria caché intermedia.

Los 1000 núcleos funcionan en paralelo ejecutando pequeños fragmentos de programa de forma independiente. Además aquellos cores que no se usan se pueden apagar por completo. Con estas dos técnicas se consigue procesar 115.000 millones de instrucciones por segundo con tan sólo 0.7 vatios, energía que podría suministrar una simple pila AA.

Los procesadores multinúcleo suponen la gran revolución de las CPU en las últimas décadas. Un núcleo o core es como un pequeño procesador dentro del propio procesador principal que puede funcionar de forma independiente  (procesamiento en paralelo). Así se manteniene el consumo en niveles más bajos que si utilizases varios procesadores principales con un solo núcleo.

Los ordenadores, consolas y smartphones actuales utilizan CPUs con entre 2 y 10 núcleos. A nivel profesional se pueden encontrar CPUs con 32 o más cores.

La Universidad de California está trabajando en nuevos algoritmos que permiten dividir un programa en múltiples tareas independientes, para que se procesen de forma paralela con KiloCore. De esta manera el rendimiento se multiplica por cien manteniendo un bajo consumo.



IBM fabricó microprocesador de 7 nm

IBM desarrolló un microprocesador ultracondensado para computadores que es 4 veces más potente que los existentes. Es el microprocesador con componentes de 7 nanómetros de ancho.

Los procesadores actuales son de 14 nanómetros, aunque la industria ha comenzado ya la transición hacia la producción de procesadores de 10 nanómetros.  Cada nueva generación de microprocesadores se define por el tamaño mínimo de sus componentes esenciales.

IBM indicó que los nuevos avances permitirán fabricar microprocesadores con 20.000 millones de transistores, frente a los 1.900 millones que incorporan los procesadores más avanzados de Intel con componentes de 14 nanómetros.

Las empresas de microprocesadores están en plena carrera para reducir el tamaño de los transistores y otros componentes microscópicos siguiendo una tendencia de incremento del poder computacional conocida como la ley de Moore, de Gordon Moore, uno de los pioneros del desarrollo de los microprocesadores de silicio y cofundador de Intel.

IBM dijo haber sido capaz de solucionar los problemas planteados por el desarrollo de microprocesadores tan minúsculos mediante el uso de silicio germanio, en lugar de silicio exclusivamente, en partes clave de los procesadores.

IBM destacó que entre las técnicas y procesos innovadores figuraron la incorporación de los canales de transmisión de silicio germanio y ondas de luz ultravioleta para la integración de componentes en varios niveles.

IBM recordó que los expertos consideran "crucial" la tecnología de 7 nanómetros para satisfacer las demandas futuras de la informática en la nube, los sistemas de procesamiento de cantidades masivas de datos, los productos móviles y otras tecnologías emergentes.

IBM y sus socios, entre los que figura Samsung, planean invertir alrededor de 3.000 millones de dólares en una planta en Nueva York para la fabricación de microprocesadores  de 7 nanómetros.

IBM espera que estos microprocesadores empiecen a incorporarse en computadores y otros dispositivos en el año 2017.


IBM: Apuesta por servicios en la nube

IBM proyecta obtener  9, 900 millones de dólares en ingresos el 2015 a nivel mundial, 50 % más que en 2014, para conseguirlo está haciendo inversiones consideradas como estratégicas, entre ellas una de 1,200 millones de dólares para el despliegue de sus servicios en la nube.

Parte de esta inversión se destinó a la instalación de un centro de datos en Querétaro ( Mexico), una zona menos propensa a desastres naturales, lo que refuerza la seguridad que buscan los clientes. Este centro ofrecerá además de almacenamiento de datos, servidores sin software (bare metal), servidores virtuales, servicios de seguridad y de red; también podrá servir a empresas ubicadas en México y en el resto de América donde se estima que el secgtor crezca 25% en los proximos 3 años

El de México es el primer centro de datos en la nube de IBM en América Latina. instalará otro en Brasil.

IBM abrió otros centros en 2014 en Frankfurt, Tokio, París, Melbourne, Toronto, Londres, Texas, Virginia y Hong Kong.


LIDER EN PATENTES

20 patentes al día es la cifra que los inventores de IBM produjeron de media el 2014. En total registró 7 mil 534 patentes, es decir, más que Accenture, Amazon, Google, HP, Intel y Oracle juntas.

IBM lidera este ranking por 22 años consecutivos; una lista en la que la siguen las mismas cuatro compañías que en 2013, y en el mismo orden:  Samsung Electronics (4 mil 952 patentes), Canon (4 mil 55), Sony (3 mil 224) y Microsoft (2 mil 829). Toshiba (con 2 mil 608 patentes), Qualcomm (2 mil 590), Google (2 mil 566), LG Electronics (2 mil 122) y Panasonic (2 mil 095) completan la lista de las 10 compañías que más patentes han realizado el año que acaba de terminar.

En 2014, la Oficina de Patentes y Marcas de EEUU registró en total 300 mil 678 patentes, el mayor número en un solo año.

LA REDUCCION DE IBM


IBM durante los ùltimos años ha ido perdiendo su valor de mercado en el sector tecnológico de USA




La cotización de IBM sigue descendiendo





COMPUTACION CUANTICA

La idea de la computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabajaría a nivel del cuanto o “quantum”. . En la computación digital, un bit sólo puede tomar dos valores: 0 o 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados
ortogonales de una partícula sub atómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits.

La computación cuántica Se basa en el uso de qubits (“quantum bits”), en lugar de bits, y da lugar a nuevas puertas lógicas, que hacen posibles nuevos algoritmos. En un computador cuántico, una capacidad computacional de 500 Qubits por ejemplo, requeriría de 2500 valores complejos, lo cual sería un valor demasiado grande a ser representado en un computador clásico. Por ejemplo, un Terabyte de información digital requiere de 243 valores discretos.



Cuerpo Humano: El cerebro y la red neuronal biológica humana, la jerarquía de la estructura del sistema nervioso del cuerpo humano exhibe un protocolo C3  (Comando, Control, Comunicaciones, Información e Informática) partiendo del cerebro y que converge a una celda. Existen aproximadamente 1010 células nerviosas y posiblemente más de 1014 interconexiones en la Red Neuronal humana que
constituye el sistema central nervioso

Las neuronas son los bloques constructores o “building blocks” de la unidad de señalización en el sistema nervioso. El sistema nervioso es una memoria de máquina con arquitectura auto organizativa.
Una célula es de por sí un microprocesador a nivel biológico molecular con capacidad computacional. El Corazón Humano es un Computador Biológico Molecular con la capacidad de manejo de un gran campo de energía electromagnético.

Las 100 Trillónes de células en un adulto humano forman una cadena de proteínas que auto organizan sin el más mínimo error 150,000,000,000,000,000,000 (150 quintillones o 150 x 1018) aminoácidos!

 Para estimar la potencia computacional del cerebro, podríamos contar el número de sinapsis: estimar su velocidad de operación, y determinar las operaciones de sinapsis por segundo. Hay aproximadamente 1015 sinapsis que operan con alrededor de 10 impulsos x segundo, dando aproximadamente 1016 operaciones de sinapsis por segundo.

. Una sóla célula nerviosa puede procesar 200,000 datos de información al mismo tiempo cada segundo.
Hay alrededor de 10 billones de células nerviosas en el cerebro las cuáles mantienen comunicación a través de 100 trillones de conexiones. El ojo humano por ejemplo, tiene una capacidad de procesar 10 millones de bits de información por segundo. De esta manera el reto de la tecnología, es el de emular las capacidades de procesamiento del sistema neuronal complejo del ser humano.


IBM ha producido un nuevo chip experimental neuro-sináptico, que emula la función cerebral en áreas como la cognición, la percepción y la acción. Estos nuevos Neuro chips o chips neuromórficos, se utilizan algoritmos y circuitos de silicio con el fin de recrear las neuronas y las sinapsis enriquecidas en
el cerebro. IBM ha desarrollado dos (02) prototipos de trabajo que actualmente están sometidos a las pruebas. Ambos tienen 256 núcleos de neuronas y fueron fabricados en 45 nm SOl-CMOS. Un núcleo tiene 262.144 sinapsis programables mientras que el otro contiene 65.536 sinapsis de aprendizaje. Los investigadores ya han logrado aplicaciones como la visión artificial, memoria asociativa, clasificación
de patrones, navegación y reconocimiento de patrones.

Intel Research Laboratory en Hillsboro, Oregon, EE.UU., anunció el diseño de un chip neuromórfico basado en dos tecnologías: válvulas laterales de giro y en los memristores. Basados en diseños de
Spin-neuromórficos puede lograr una performance de consumo de energía más eficiente. La meta de Intel es construir chips que emulan al cerebro humano.

A través de los circuitos de silicio y algoritmos avanzados, junto con los principios de la neurociencia, la nanociencia y la supercomputación, estos chips son capaces de imitar los procesos biológicos, como los que ocurren en el cerebro humano.

El universo que nos rodea, galaxias, sis- temas solares, estrellas, agujeros negros, pulsares, neutrons, etc… son sistemas computacionales. El universo en sí es el sistema computacional más impresionante,
un verdarero Computador Cosmológico Cuántico o Quantum Universe Computer






domingo, 22 de mayo de 2016

TIC: La tendencia del Coworking

La Global Coworking Unconference Conference (GCUC), asociación que promueve el coworking como nueva forma de trabajo en EEUU y Canadá, estima que para el 2018 habrá 12,000 locales de este tipo a nivel mundial, con más de un millón de miembros activos.


Los coworkers acuden a estos lugares por ahorro, pero también el networking. La terraza, el comedor, la cafetería, el patio y las mesas compartidas son puntos de encuentro entre compañeros de oficina, que pueden convertirse en potenciales socios o clientes.

La constante interacción genera en los coworkers una fuerte identidad con sus emprendimientos. Tener la oportunidad de exponer con frecuencia lo que hacen ante otros profesionales como ellos –y recibir feedback inmediato– hace que los coworkers se esfuercen por destacar las ventajas de sus trabajos. Estas relaciones generan que el coworker se sienta contento, motivado y acompañado, según datos de sondeos de opinión que la GCUC realizó entre sus afiliados en el 2015.


Comunidades de profesionales: Con la maduración del concepto de coworking se han abierto oficinas para atender demandas específicas desde blogueros viajeros y profesionales eco-friendly hasta músicos y surfistas.

Coworking Hub: Han surgido las hub que suman incubadoras de negocios y laboratorios de innovación a los espacios compartidos. Como Impact Hub Madrid  una comunidad compuesta por 11,000 emprendedores y que promueve la aceleración de proyectos en 70 ciudades.


COWORKING EN EL PERU

Comunal:  Fue la empresa que introdujo el concepto de coworking en Lima hace 3 años, cuando Zuzunaga retornó a Lima tras conocer el concepto mientras estudiaba en Nueva York.


Residencia: Ubicado en Barranco, empresa de coworking con proyección nacional


Stars Camp: Se encuentra ubicado en Lince, Lima,






TIC: Tecnologias en la educación

Telefónica Educación Digital realizó la I Jornada ScolarTIC Perú, evento que reunió a diversos especialistas educativos nacionales e internacionales, quienes destacaron la importancia de la tecnología en la educación y la necesidad de implementarla como un facilitador de aprendizaje.
El evento, buscó debatir las claves para la enseñanza en la actualidad, contó con la participación de diversos expertos quienes plantearon conceptos disruptivos sobre la transformación educativa y las nuevas influencias que se producen a partir de la sociedad digital.

La conferencia inaugural, a cargo de Hugo Díaz y Jesús Fernández-Cid, compartió sus perspectivas sobre el futuro de la sociedad y la necesidad de generar competitividad global a través de la transformación del alumno en protagonista y el docente en facilitador.

Paul Neira comentó sobre los programas de innovación educativa como solución a los problemas de aprendizaje digital, así como tecnología dentro de la educación y las artes. Uno de estos proyectos fue presentado por Elizabeth Galdo, quien compartió la experiencia del proyecto “Aulas Móviles”, que contribuye a mejorar la enseñanza de niños y niñas a través de la formación, acompañamiento y experimentación con las Tecnologías de la Información y las Comunicaciones( TIC).  Hasta la fecha, hemos entregado cerca de 68 aulas móviles a nivel nacional”, destacó Galdo.

Otros temas que se desarrollaron durante la jornada se enmarcaron en la exploración de diversos conceptos relacionados con el aprendizaje efectivo como la motivación del alumno; la enseñanza de competencias  Ciencias, Tecnología, Ingeniería y Matemática (STEM por sus siglas en inglés), así como la diversión y la educación como agente promotor de oportunidades y transformador de sociedades. .

La jornada tuvo una fase virtual a través de la Comunidad ScorlarTIC (www.scolartic.com), espacio social de aprendizaje para docentes, profesores y padres de familia donde pueden formarse e informarse sobre las últimas tendencias educativas internacionales, así como conectar con otros colegas de Hispanoamérica.


SOCIEDAD DE LA INFORMACION

Según Sandro Marcone Presidente del Instituto para la Sociedad de la Información, para que en el Perú se desarrolle una Sociedad de la Informacion y el Conocimiento se deben dar al menos 3 dinámicas: Conectividad, Economia de la Información y Sociedad Red. Los avances  en estos 3 factores tenga un país configuran su CULTURA DIGITAL.
Conectividad, pensando en la infraestructura y el acceso
Economía de la Información, donde la virtualización y la convergencia juegan un rol importante
Sociedad Red: la forma organizativa que caracteriza a la era de la información” (Castells, 2001).

No se trata de "Tecnificar la Sociedad sino de Socializar la Tecnologia".
Nos falta reflexión sobre los fines últimos de todo este desarrollo tecnológico; algunos hablan de competitividad y productividad y de modernización del estado, pero nos hace falta reflexionar sobre democratización, ciudadania, derechos y deberes, entre otros

Este es una iniciativa de Fundación Gustavo Mohme Llona, el Instituto para la Sociedad de la Información (http://ipsi.pe) y la Universidad Ruiz de Montoya

El primer Taller de Debate #CulturaDigital.pe  de ingreso libre este 23 Junio 2016 a las 6:00 pm más información http://culturadigital.pe










lunes, 16 de mayo de 2016

IQUITOS: Fibra óptica en Línea Moyobamba-Iquitos

La Región Loreto tendrá comunicación por fibra óptica con el resto del país cuando se implemente el tendido de nfibra óptica en las torres de la línea de tranmisión Moyobamba-Iquitos, que tendrá una longitud de 630 kilómetros. Del cable de fibra óptica, 18 hilos son de propiedad del Estado y formarán parte de la Red Dorsal Nacional de Fibra Óptica (RDNFO) cuando se logre su culminación.

 Luis Montes, Secretario Técnico del Fondo de Inversión en Telecomunicaciones (FITEL), estimó que para el 2019 o 2020 podrían haber novedades sobre el servicio dado que los proyectos de conectividad deben pasar antes por estudios de impacto ambiental.


El 05 de Junio 2014 el Consorcio Isolux Transmisora Peruana, integrada por las empresas Isolux Ingeniería de España e Isolux de México, se adjudicó la buena pro de la Concesión por 30 años de la Línea de Transmisión de 220 Kv Moyobamba – Iquitos, que integrará a Iquitos al sistema eléctrico nacional. La Agencia de Promoción de la Inversión Privada (ProInversión) entregó la buena pro a la compañía debido a que ofreció el menor costo de servicio por US$74,6 millones y una inversión de US$499,2 millones


Con esta oferta, el Consorcio Isolux superó la propuesta planteada por Abengoa Perú (US$579,4 millones de inversión y US$86,7 millones por costo de servicio), el segundo postor que quedó en carrera en el concurso público.

El Consorcio Transmisión Iquitos no presentó su propuesta, según indicaron funcionarios de Pro Inversión.
  
La concesión del proyecto establece el diseño, financiamiento, construcción, operación y mantenimiento de la línea de transmisión y de sus subestaciones asociadas. Se estima, además, que la mencionada línea tendrá una extensión de 630 km.

El Representante legal del Consorcio, dijo que esperan iniciar la construcción de la línea el 2015. “Las obras demorarán unos 52 meses”, añadió.

El Consorcio Isolux cuenta con una experiencia de tendido de red eléctrica de 1.200 kilómetros en Perú y otros países. En nuestro país, son dos propietarios de dos parques fotovoltaicos en Arequipa y tienen la concesión de la hidroeléctrica Molloco.
El Consorcio Isolux, que actualmente tiene inversiones que bordean los US$2.000 millones en el país, tiene la intención de participar en nuevos proyectos en infraestructura y energía.

domingo, 15 de mayo de 2016

eWASTE: guía de UIT para la gestión de desechos electrónicos en Latam

La basura generada por dispositivos electrónicos obsoletos se está convirtiendo en uno de los principales problemas ambientales  asegura la Unión Internacional de Telecomunicaciones (UIT), por ello dio a conocer un informe guía para la gestión de desechos electrónicos en América Latina. Este informe fue realizado por la UIT, la Secretaría del Convenio de Basilea, el Centro Regional del Convenio de Basilea para América del Sur, la UNU, la OMS, la OMPI, la ONUDI, la CEPAL y la UNESCO con el objetivo de ofrecer algunos pasos a seguir para el reciclaje de este tipo de residuos.

A medida que los usuarios actualizan sus dispositivos, el problema se agrava. Sólo en 2014 se generaron 41.8 millones de toneladas de desechos electrónicos.

La UIT asegura que el manejo de los residuos electrónicos debe ser especial ya que pueden recuperarse metales preciosos, como el oro. Una tonelada de teléfonos móviles usados puede generar hasta 400 g de oro.

La UIT ha propuesto la creación de una dirección que mejore la coordinación de los desechos electrónicos dentro del sistema de la ONU.

RELAC: Plataforma Regional de Residuos Electrónicos en Latinoamérica y el Caribe


RESIDUOS ELECTRONICOS EN LATINOAMERICA

El incremento de la cantidad de dispositivos electrónicos y la acelerada renovación de los mismos, ha incrementado la basura electrónica (eWaste) por lo que los operadores de telecomunicaciones han puesto en marcha diversos programas de reciclaje.

El exponencial desarrollo tecnológico y la amplia adopción de dispositivos electrónicos como computadoras, televisores, radios, teléfonos móviles, tablets y routers, ha generado una cantidad sin precedentes de residuos electrónicos.  De acuerdo a la Universidad de las Naciones Unidas (UNU) , los Residuos de Aparatos Eléctricos y Electrónicos (RAEE) a nivel mundial alcanzará los 57.514 Kilotones de los caules 4.968 kilotones (8.6%) corresponde a Latinoamerica.






Brasil y Mexico generarán la mayor cantidad ewaste


Dado el importante crecimiento de los residuos en los últimos años, diversos operadores en el mundo han diseñado programas, campañas y proyectos para el cumplimiento de la legislación ambiental y el manejo de desechos electrónicos.

Si bien cada país tiene nuevas leyes ambientales y normas para el manejo de desechos, latinoamerica  carece de un marco regulatorio específico para desechos electrónicos, por lo que muchos de los perogramas son  iniciativas propia de los operadores. Agunos ejemplos:
Telefónica en Ecuador  en 2013 trató más de 112 mil celulares, accesorios, baterías y cargadores en desuso
Móvil Oi de Brasil está invirtiendo unos 10 millones de dólares en cinco plantas de reciclaje de la empresa Descarte Certo que en 2012 procesaron 43 mil 782 dispositivos móviles, cargadores y baterías.
Claro de Perú, instaló 203 puntos de acopio en todo el país y recolectó más de 58 mil artefactos entre 2010 y 2013.







RAEE en PERU
Según un estudio de IPES y EMPA en Perú, solo los tetéfonos celulares  generaron 6.7 toneladas de RAEE en el 2009, 14.5 en el 2012 y se estima en 25.1 Ton para el 2015.




RAEE en EUROPA

La Directiva de Residuos de Aparatos Eléctricos y Electrónicos (Waste Electrical and Electronic Equipment, WEEE), 2002/96/CE, es una ley de agosto 2005 en tla Unión Europea. Pretende promover el reciclaje, la reutilización y la recuperación de los residuos de estos equipos para reducir su contaminación.



El forum WEEE,

El Proyecto WEEE TRACE tiene como objeto el asegurar la trazabilidad desde el origen al destino final del flujo de residuos de aparatos eléctricos y electrónicos (RAEE) mediante el uso de tecnologías avanzadas de información y comunicaciones.

VENEZUELA: Datos de Telecomunicaciones

Datos de la organización 5G Americas citan que Venezuela tiene adjudicados a las empresas del sector 324 MHz de espectro para servicios móviles, apenas 24.9% de lo sugerido por la Unión Internacional de Telecomunicaciones para el 2015 como mínimo necesario para ofrecer un buen servicio al usuario.



En el 2014 se registró la última adjudicación de espectro; dos años después, el regulador local, la Conatel, prevé adjudicar porciones en las bandas de 1.7, 1.9, 2.1 y de 2.5 GHz. Esta es una decisión que celebra 5G Americas, que no deja de advertir en la necesidad de inversiones en infraestructura.



2015

Los ingresos por servicios de telecomunicaciones en Venezuela se incrementaron 45.2 % al 4T-2015, hasta totalizar 4,789 millones de dólares, según  la Comisión Nacional de Telecomunicaciones (Conatel).  Las inversiones en el sector se triplicaron, con respecto al cuarto trimestre de 2014.

El principal generador de ingresos fue el segmento móvil con 59.87 % del total, seguido por la TV de paga con 14.46 % y otros con 9.67 %.


Venezuela cerró 2015 con 29´093,517 suscriptores de telefonía móvil, 4.7 % menos que el registrado el 2014. 13´246,365 suscriptores contaban con un smartphone, 1.9 millones más que el 4T-2014.

Los usuarios de telefonía móvil generaron 17,792 TB en información durante el 4T-2015, con un consumo mensual promedio por usuario de 469.47 Mb.

2.21 % de los suscriptores móviles usan LTE, contra 22.5% de CDMA y 75.29 %  GSM/UMTS.

Movilnet, filial de la estatal CANTV, atiende a 50.23 % del mercado móvil, seguido por Telefónica con 34.27 % y Digitel con el 15.5 % restante.

BA: 13.7 millones de suscripciones con plan de datos, 3.6 millones de suscripciones fijas y otros dispositivos. 16'´728,894 usuarios de Internet al cierre de 2015, 4.94 % más que en 2014, lo que representa que 62.5 % de la población tenía acceso a este servicio.  Del total, 79.04 % accede mediante sus teléfonos celulares, 14.62 % son usuarios residenciales, 4.67 % por dispositivos móviles y 1.67 % son no residenciales.

TV de paga,  5´019,597 suscriptores del servicio, 10.5 % más que el mismo periodo del año pasado. Del total, 69 % estaba siendo atendido por tecnología satelital.  DirecTV, proveedor satelital filial de AT&T, posee 40.96 % del mercado de TV de paga en Venezuela





miércoles, 11 de mayo de 2016

JUNIPER: SDSN Seguridad de Red definida por Software

Juniper Networks  anuncia su visión de cómo implantar la seguridad de una red en el mundo conectado por medio de la automatización como IoT.

La nueva visión de la evolución de redes de seguridad de Juniper Networks  es conocida como Software Defined Security Networks (SDSN). Por medio de la automatización de redes y con el apoyo de avanzados sistemas inteligentes y centralizados, que catalogan informaciones de amenazas y malwares, la SDSN los identifica y localiza con eficiencia y agilidad para su pronta eliminación. Estos sistemas están en la nube y cuentan con la colaboración de múltiples fuentes, en tiempo real, en todo el mundo.

Los principios de este nuevo modelo de seguridad han sido anunciados por Juniper en la RSA Conference 2016, que se realizó en San Francisco, en EEUU. Juniper, ha definido su visión de SDSN como una red segura basada en una nueva política que utiliza todos los recursos de seguridad, incluso la propia red, y no solamente aplicaciones dedicadas.

“Eso significa usar la red como un ecosistema de inteligencia de seguridad y computación en la nube”,  añadiendo que el concepto de SDSN perfecciona las tecnologías actuales por el uso de las capacidades de computación en nube, pues utiliza un sistema que detecta dinámicamente un comportamiento de riesgo en la red en tiempo real para unificar la política a través de ambientes de red heterogéneos.

“Lo que Juniper va a hacer con la SDSN es automatizar una infraestructura basada en zero trust”, resume Alexandre Cezar, especialista en seguridad de la subsidiaria brasileña de Juniper Networks. Él explica que el concepto consiste en crear un local en la red donde, de forma central, sea posible implementar una política de seguridad que vaya más allá del tradicional en firewalls. “La idea de la SDSN es crear una red zero trust, o sea, en que no hay confianza en ningún equipamiento usuario”, dice Cezar. “Son todos maliciosos hasta que se pruebe el contrario.” La SDSN va a detectar y bloquear amenazas y malwares con base en el perfil de la gestión de riesgo, además de identificar y bloquear en cuarentena los hosts infectados, acompañando sus caminos.

La SDSN va a traer un abordaje de seguridad de ordenador que busca unificar tecnologías endpoint (tales como antivirus, prevención de intrusión en host y evaluación de la vulnerabilidad) para fortalecer aún más las redes de ordenadores que están conectadas de forma remota a los dispositivos de los usuarios. El uso de laptops, tablets y otros dispositivos debe tener un sistema de identificación del usuario o un sistema de autenticación y reforzamiento de seguridad de la red.

El controlador de este nuevo sistema va a trabajar en conjunto con las plataformas de seguridad de la Juniper ya existentes, como los gateways de SRX, Space Director, ATP, vSRX y Sky Advanced. Tendrá el papel de un orquestador y, de forma automatizada, va a inspeccionar todos los elementos de una red, como switches, firewalls, enrutadores y dispositivos conectados a esa red, como móviles o ordenadores de mesa. La diferencia en relación a lo que existe es que, en ese nuevo concepto de seguridad, no hay confianza en nada y todos son inspeccionados (dispositivos y usuarios).

Como Juniper trabaja con tecnologías abiertas, el controlador será compatible con equipamientos de diferentes fabricantes. “Eso no significa que hablará con todos los proveedores del mundo, pero tendrá las herramientas para que el propio fabricante integre su producto o para que el propio cliente haga la integración”, aclara Cezar.

Para automatizar la red de punta a punta, Juniper Networks está trabajando con otros fabricantes para aumentar las capacidades de detección y control de sus plataformas. Entre ellos están la Attivo Networks, la Cyphort, la Vectra y la Pulse.

Con la SDSN, Juniper va a crear una política para proteger a todas las máquinas, independientemente de donde se encuentren, físicamente o en la nube. El controlador conecta en la nube e implementa la política solicitada donde sea necesario. “Eso será posible porque él va a hablar con el Contrail para saber donde están las máquinas y va a ejecutar la tarea de forma automática”, explica el especialista. -

HCIS: Mercado de los Sistemas hiperconvergentes integrados

Según Gartener el  Mercado de los sistemas hiperconvergentes integrados (HCIS -  HyperConverged Integrated Systems) crecerá un 79% hasta alcanzar casi 2.000 millones de dólares en 2016.

HCIS  tendrá un crecimiento más rápido entre los sistemas integrados, y alcanzará casi 5.000 millones de dólares en 2019, lo que representará el 24% del total de los sistemas integrados.

Gartner define HCIS como una plataforma de oferta de recursos informáticos y de almacenamiento compartido, basado en el almacenamiento definido por software, cálculo definido por software, hardware común y una interfaz de gestión unificada.

Los sistemas hiperconvergentes aportan su valor más importante a través de herramientas de software, que se dan uso mediante el hardware subyacente.

"Estamos en la  3ra fase de los sistemas integrados, esta evolución presenta la infraestructura TI y las operaciones líderes en un marco que hace evolucionar a sus implementaciones y arquitecturas", afirma Andrew Butler, vicepresidente y analista de Gartner

La tercera fase de sistemas integrados aportará infraestructuras dinámicas, que ofrecen además bloques modulares y desglosados de desarrollo de hardware, la entrega guiada de aplicaciones y la optimización económica continua.

A pesar de las altas tasas de crecimiento del mercado, algunos casos de utilización de HCIS han sido muy limitados, causando silos con la infraestructura existente. Su progresión dependerá de múltiples avances de hardware y software, como la creación de redes y organizaciones definidas por software.

En última instancia, la infraestructura subyacente desaparecerá para convertirse en una herramienta maleable bajo el control de la inteligencia y el software automatizado.

"HCIS no es un destino, sino un camino evolutivo", ha dicho Butler.


HYPERFLEX DE  CISCO 

En la Conferencia anual de partners, CISCO puso el énfasis en el objetivo de mantener su relevancia en el centro de datos y su presencia en la nube, un área que cada vez le es más esquiva.

Cisco anunció su ingreso a la categoría de sistemas hiperconvergentes, un mercado que se estima vale más de US$ 5.000 millones al año, por medio de HyperFlex. La hiperconvergencia es un sistema definido por software que integra los recursos de cómputo, almacenamiento, redes y virtualización, así como otras tecnologías en un único sistema, y el cual se despliega en una caja de hardware.


La convergencia es una estructura de elementos separados –cómputo, redes y almacenamiento- diseñados para trabajar en conjunto. El objetivo de la hiperconvergencia es el de permitir a los departamentos de IT aumentar la eficiencia, reducir la complejidad operativa y crecer rápidamente para satisfacer las demandas crecientes de los usuarios. Las principales compañías que compiten en este nuevo segmento son NutamixSimpliVityScalecomputingNimboxx y VMware, entre otras.



Cisco tiene presencia en este mercado a través de alianzas, especialmente con NetApp y Vblock. Sin embargo, FlexPod, el cual ofrece Cisco con NetApp, está decreciendo aceleradamente y por otro lado es inminente la desaparición de Vblock, debido a la adquisición de EMC por parte de Dell. Vblock, una alianza entre Cisco, VMware y EMC entrega en un solo rack convergente capacidad de cómputo, almacenamiento y conectividad.

De aquí que Cisco haya tenido que buscar nuevas salidas con Cisco HyperFlex, construido sobre la plataforma Unified Computing System, que busca simplificar la automatización de políticas a través de la red, el cómputo y el almacenamiento.


En esta categoría de sistemas hiperconvergentes, Nutamix, fundada en 2009 lleva la delantera. El sistema hiperconvergente de Nutamix es fundamentalmente una solución de software que se despliega en las cajas blancas de Supermicro, y la cual puede crecer por containers que se adoptan automáticamente el uno al otro. El software se va adaptando a cada container generando un solo pool de cómputo y almacenamiento. Con Nutamix se elimina la latencia, o el tiempo que toma a la red transportar las cargas de trabajo, al utilizar solamente un switch para conectarse con la nube pública. La latencia era el principal reto que tenía Cisco en VMware.

En el centro de datos existen hoy, 7 o más herramientas de gestión. Y este es precisamente el problema que las redes definidas por software, SDN (Software Define Networking) quiere resolver, o por lo menos es su objetivo a largo plazo: contar con un solo sistema que administre todo el centro de datos y la nube pública. Esto es lo que entrega Nutamix desde 2009 y que ahora busca entregar Cisco por medio de HyperFlex.

Cisco, como todos los demás fabricantes de la industria, está tratando de resolver el problema de automatización y orquestación. La dificultad en automatizar y orquestar la nube privada es lo que ha permitido el éxito de la nube pública, donde todo se hace en segundos y no meses.

Cisco anunció que pagará US$ 260 millones por adquirir el startup CliQr, compañía que ofrece una plataforma de software para modelar, desplegar y administrar nubes, aplicaciones y usuarios. El software de CliQr permite a las empresas evaluar el precio y desempeño de los principales proveedores de nube como Google, AWS y Microsoft y determinar cuál es la mejor opción. Este tipo de software es muy necesitado por las empresas que buscan mayor flexibilidad en sus centros de datos y no casarse con un solo proveedor, reduciendo costos en el proceso. Y aunque Cisco ya había adquirido Metacloud, empresa que hace las mismas labores que CliQr, orquestar cargas de trabajo en el centro de datos, la diferencia está en que Metacloud cobra como servicio y no como una licencia, como en el caso de CliQr.

El centro de datos es casi el único negocio de Cisco que está creciendo. Sin embargo, el crecimiento es en el segmento de blades y no de redes. De aquí que los anuncios de HyperFlex, CliQr y los nuevos switches Nexus de 10/25/40/50/100 Gpbs y listos para SDN, sean tres movimientos determinantes para el futuro de Cisco.









-