jueves, 30 de junio de 2016

Supercomputadores: China y USA lideran el TOP 500

Según el listado de TOP500 de supercomputadores más potentes del mundo, China y USA lideran esta lista. China con 167 supercomputadores, mientras USA con 165 ordenadores norteamericanos.

Lidera la lista Sunway TaihuLight, con un rendimiento de 93 petaflops, ha sido desarrollado por el Centro Nacional de Investigación de Computación Paralela, Ingeniería y Tecnología de Wuxi,

Entre los diez supercomputadores más potentes del planeta únicamente hay dos procedentes del “viejo continente”. China, Estados Unidos, Arabia Saudí y Japón completan los países que forman parte del top 10 de países en supercomputación.

 El Piz Daint, inaugurado en 2014 en el Swiss National Supercomputing Centre de Lugano (Suiza), es el supercomputador europeo más rápido. hace dos años, este supercomputador era el sexto mejor del mundo,  ahora ocupa el octavo lugar. Justo detrás está el Hazel Hen, un ordenador ubicado en el Höchstleistungsrechenzentrum (HLRS) de Stuttgart (Alemania).

España tiene como si mejor ordenador al Mare Nostrum, situado en el Barcelona Supercomputing Center, que se encuentra en la posición 106 del TOP500 de supercomputación.  sus aplicaciones incluyen la colaboración en proyectos internacionales como el Human Brain Project o la misión Gaia de la Agencia Espacial Europea.


COMPUTACION CUANTICA. Iniciativa por 1000 millones euros en CE

La Comisión Europea (CE) anunció el lanzamiento de una iniciativa por 1,000 millones de euros para acelerar el desarrollo de la tecnología cuántica, la base para la próxima generación de supercomputadoras, así como los futuros avances en áreas tales como redes de comunicación seguras y sensores de gravedad. La financiación fue anunciada en la Quantum Europe Conference en la ciudad de Delft, Países Bajos.

“Europa quiere ser líder en la carrera global del desarrollo de la tecnología cuántica y fomentar su adopción por parte de las industrias”, dijo el comisionado de Economía Digital de la Unión Europea, Günther Oettinger, durante el evento donde también se presentó el anteproyecto de la iniciativa llamado Quantum Manifesto.

El proyecto ha sido respaldado por más de 3,400 líderes de la ciencia, la industria y las organizaciones gubernamentales, con fondos procedentes de la Comisión, miembros estatales, compañías y universidades.

La CE informó que las tecnologías basadas en cuánticos de corto plazo podrían estar disponibles dentro de 5 años, sobre todo para la detección, meteorología, imagen y comunicación.


NASA Y GOOGLE 
El procesador D-Wave Two, un ordenador basado en la física cuántica, de 15 millones de dólares, se instalará en un centro de la NASA y será compartido por Google y otros científicos.
Construido por la empresa canadiense D-Wave Systems, el procesador utiliza un túnel cuántico para alcanzar soluciones a los problemas matemáticos en fracciones de segundo. Los ordenadores clásicos utilizan millones de transistores (pequeños interruptores eléctricos) para calcular soluciones matemáticas. Utilizan “bits”, unos y ceros de los principios básicos. Por otra parte, los ordenadores cuánticos usan bits cuánticos o “qubits” que transmiten en unos y ceros a la vez (que operan a una velocidad de aproximadamente 3600 veces más rápido que los ordenadores convencionales).



IBM OFRECE COMPUTACION CUANTICA EN LA NUBE

IBM lanzó IBM Quantum Experience, una plataforma en la nube que permite experimentar con un procesador cuántico. Cualquiera pueda aprender y experimentar con el procesador cuántico.

Aún no se ha logrado construir un computador cuántico (solo hay prototipos), pero IBM asegura que la computación cuántica "ha pasado de ciencia a convertirse en una área de ingeniería" y que ya se ha iniciado la senda que llevará, en pocos años, a la construcción de esa computadora funcional.

IBM Quantum Experience, es una plataforma en la nube conectada a la web para que cualquiera que lo desee pueda experimentar con un procesador cuántico: aprender a programar, crear y probar algoritmos.

La computación clásica está basada en bits,y la computación cuántica, que aplica los principios de la mecánica cuántica, está basada en qubits, que no solo pueden ser ceros y unos, sino ser un 0 y un 1 a la vez, lo que da mayor velocidad de procesamiento. Además, esta trabaja en paralelo, de manera que puede resolver un número exponencial de tareas a la vez: una PC normal lo hace secuencialmente, primero resuelve un problema, luego otro y así sucesivamente.

En la Quantum Experience, cuyo acceso es gratuito, se pueden hacer simulaciones con un procesador de cinco qubits: "Cuando lleguemos a 50 qubits entraremos en un nuevo territorio.

El nivel de complejidad de esta computación es "muy elevado",  ya que "no es muy intuitivo" porque "pasan cosas extraordinarias" y además la información cuántica es "muy frágil".  Es necesario aislarla en un frigorífico a muy baja temperatura para preservar sus propiedades cuánticas. Un proceso "muy delicado".

Para el vicepresidente de IBM Research, la apertura de la Quantum Experience es un primer paso hacia ese hito. Son más de 20.000 las personas que se han sumado ya a la plataforma.

Las primeras aplicaciones de la computación cuántica serán industriales: simulación y modelado de materiales y desarrollo de nuevos fármacos. La computación cuántica también será útil para la optimización de algoritmos y para el encriptado de información.

miércoles, 29 de junio de 2016

NFV: Solución AirFrame para datacenters de Nokia

Nokia coordinó con Intel para disponibilizar su solución para datacenters AirFrame en el laboratorio de la plataforma abierta para NFV (OPNFV), anunciado durante el OPNFV Summit, que se realizó en Junio 2016 en Berlin. El equipamiento va a ser utilizado por la comunidad OPNFV para acelerar la entrega de redes cloud y aplicaciones.

El acuerdo prevé que Intel provea los procesadores Xeon y los drivers Solid State para el testeo de proyectos OPNFV.

Las aplicaciones Nokia Cloud Stack Infra for Realtime (NCIR) fueron optimizadas para soportar OPNFV tanto en ambientes de hardware como software.

Nokia espera que el acceso abierto a AirFrame le permitirá a los operadores acelerar el despliegue de arquitecturas de red 5G y aprovechar las economías de escala de la tecnología.



OPNFV LANZO ARNO

En Julio 2015 el proyecto OPNFV, una plataforma de código abierto integrada con el objetivo de acelerar la introducción de nuevos productos y servicios para la virtualización de funciones de red (NFV), anunció el lanzamiento de Arno, el primer software de la comunidad.

La solución apunta a cualquiera que esté explorando implementaciones o manifieste interés ​​en el rendimiento de NFV, el desarrollo de aplicaciones para funciones de red virtuales (NFV) y el uso de pruebas basadas en casos. Esta versión para desarrolladores proporciona el “build” inicial de infraestructura NFV (NFVI) y gestión de infraestructura virtual (VIM) que componen la arquitectura NFV de ETSI.


“Con Arno, ahora tenemos una base sólida para probar algunos de los componentes clave de orquestación de recursos y control de la red para NFV”, dijo Prodip Sen, presidente del directorio de OPNFV.

Arno permite integración continua, implementación automatizada y pruebas de componentes de proyectos de upstream como Ceph, KVM, OpenDaylight, OpenStack y Open vSwitch. Además, los usuarios finales y desarrolladores pueden desplegar VNFs propias o de terceros para probar su funcionalidad y rendimiento en diversos escenarios de tráfico y casos de uso, entre otras características.

-

domingo, 26 de junio de 2016

RADIO DIGITAL: Mercado y Normas (DAB+, DRM, HD Radio)

La radio digital no es radio por Internet; no es un streaming. Es  un servicio gratuito y que ha comenzado a evolucionar y que no implica cobros al usuario, más que el de invertir en su receptor. Es muy parecido a lo ocurrido con la TV digital.

La radio digital ofrece oportunidades para que los radiodifusores compitan por nuevos oyentes en segmentos más definidos y que les repercutan en ingresos; para que la radio pública a su vez tenga la oportunidad acceder a un “canal” de radio bajo la modalidad de la multiplexación sin tener que invertir forzosamente en infraestructura o espectro, y para que los usuarios a través de esta radio reciban más beneficios específicos, como alertas de tránsito, de clima o de emergencias, por ejemplo.

La radio digital tiene un símil en la televisión digital. Con esta tecnología, un ancho de banda por el que transmita una estación de FM puede aprovecharse con la “división” del espectro en más canales, hasta en 4 de ellos y el primero de esos cuatro se destina a la transmisión en digital de la señal análoga original, explicó HD Radio, filial del grupo iBiquity Digital Corp que desarrolló la tecnología para este tipo de transmisiones y que ya es utilizada en algunas emisoras de México y en todo Estados Unidos, donde esta tecnología logra una penetración del 90 %.



La radio digital utiliza hasta ocho veces menos energía en enviar las señales a los receptores, lo que significa la optimización de recursos.

Los esfuerzos para crear un sistema de radiodifusión digital comenzaron durante la década de los 1980s. En Europa los estudios se canalizaron a través del proyecto Eureka 147 y el fin principal era la ganancia en calidad, dando lugar a DAB.

 En Estados Unidos,  Ibiquity lideró el diseño del nuevo sistema, teniendo como principal objetivo un sistema muy adaptativo que permitiera un cambio gradual de los receptores, dando lugar a IBOC.

Actualmente,  existen tres sistemas de radiodifusión digital: IBOC (In-band On-channel), DAB (Digital Audio Broadcasting) y DRM (Digital Radio Mondiale). IBOC se ha implantado con relativa facilidad en los países que adoptaron este sistema.


2017 APAGON RADIO FM en NORUEGA

 Noruega finalizará la radio en Frecuencia Modulada (FM) en el 2017 para pasar al sistema de emisiones digitales, lo cual lo convierte en el primer país del mundo en realizar esta acción.

La FM será reemplazada por el estándar DAB (Digital Audio Broadcasting), con la cual  ya operan 22 emisoras en Noruega donde 55 % de los hogares posee un aparato  adaptado para DAB.

DAB está disponible en Noruega desde 1995, y tuvo una actualización a DAB+ en 2007,  una versión evolucionada que ofrece una mejor calidad de audio, nuevas funcionalidades (como un sistema de emergencia), además de brindar mayor capacidad para emisoras con cobertura nacional.

Pese a que DAB ya se encuentra en una considerable cantidad de hogares, aún existen 7.9 millones de radios FM, además de los transistores presentes en 80% del parque automovilístico del país, que no podrán adoptar el nuevo sistema.

DAB ha sido adoptado como sistema de transmisión de radio en partes de Europa y Asia.


NORMAS TECNICAS DE RDT

La Radio Digital Terrestre ( RDT)  es un sistema de radiodifusión publico de audio, con emisión de señal digital. Actualmente existen tres sistemas de radiodifusión digital a nivel mundial:  DAB (Digital Audio Broadcasting), IBOC (In-band On-channel) y DRM (Digital RadioMondiale)



DAB (Digital Audio Broadcasting). En 1995, fue aprobado como el estándar para Europa (ETSI
300 401). El WorldDMB Forum es el organismo encargado de la definición de los estándares de la familia Eureka 147, que incluye DAB y DAB+ para radio digital y DMB para radio multimedia y televisión móvil.


Hoy en más de 30 países se ofrecen regularmente servicios basados en DAB, sumando más de 1.300 servicios multimedia distintos. Existen más de 500 millones de oyentes potenciales alrededor del mundo y se han vendido más de 12 millones de receptores DAB.

DAB utiliza una técnica de codificación y compresión de audio muy eficiente, denominada MPEG Audio
Layer II (MP2) o Musicam. Así, mientras una señal digital estéreo como la del CD necesita una capacidad de 1,4 Mbps, con MP2 se necesitan sólo 192 kbit/s sin afectar prácticamente a la calidad,

 Junto con el transporte de la señal de audio, DAB permite el envío de texto ofreciendo más detalles
que el sistema RDS (Radio Data System) de FM, de manera que se puede mostrar en los receptores digitales numerosa información complementaria a la emisión, como la emisora, el título de la canción, noticias sobre el tráfico o el clima, publicidad, etc.

DAB emplea modulación OFDM (Orthogonal Frequency Division Multiplex), que permite el establecimiento de redes de frecuencia única o SFN. Con OFDM se emplean técnicas de corrección de errores FEC (Forward Error Correction). OFDM reduce así las interferencias entre emisoras y las que sufren las transmisiones convencionales debidas a la propagación multi-trayecto (vehículos en movimiento).



En 2007 se estandarizó DAB+ (ETSI TS 102 563), ofreciendo compatibilidad hacia atrás con DAB y más cobertura, mayor eficiencia espectral, costes de transmisión más bajos, posibilidad de sonido envolvente, mayor robustez, bajo retardo en el “zapping” entre emisoras, etc. DAB+ es más del doble de eficiente que DAB, al usar el códec de compresión de audio más eficiente: HE-AAC v2 (MPEG-4 High Efficiency AAC v2 profile). DAB soporta entre 8 y 10 servicios en un multiplex de 1 MHz, mientras que DAB+ puede acomodar de 20 y 30 servicios de radio en el mismo espectro. Además la calidad de la recepción es más robusta en DAB+ que en DAB, ya que incluye la codificación de corrección de error Reed-Solomon.

DAB+ introduce capacidades adicionales de vídeo y multimedia con DMB (Digital Multimedia Broadcasting), lo cual lo han convertido en una plataforma de radio digital multimedia e incluso de televisión móvil digital. DMB (ETSI TS 102 428) permite la difusión de un amplio rango de servicios de televisión interactivos simultáneamente en el mismo multiplex (servicios de vídeo, servicios de radio DAB y DAB+, descarga de ficheros o podcasting, guía electrónica de programación o EPG, etc.). En el espectro de un multiplex de 1,5 MHz se pueden ofrecer alrededor de 7 servicios DMB. Hoy DMB es el estándar de TV móvil más exitoso del mundo, con servicios comerciales en algunos países de Europa y Asia y más de 8 millones de dispositivos vendidos.






DRM (Digital Radio Mondiale)
El DRM es un sistema digital para las bandas de radiodifusión con modulación de amplitud, Onda Larga (ondas kilométricas), Onda Media (ondas hectométricas) y Onda Corta (ondas decamétricas), por debajo de 30 MHz. fue aprobado en el año 2003 por la UIT (recomendación ITU-R BS 1514) y recomendado en las bandas entre 3 y 30 MHz (Onda Corta).bn También ha sido estandarizado por la norma IEC-62272-1 y por la ETSI ES-201980.

DRM cubre bandas de radiodifusión: en Amplitud Modulada (onda larga, onda media y onda corta) y en Frecuencia Modulada también conocido como DRM+.

HD Radio
HD Radio ha sido desarrollado por Ubiquity.


PERU: MTC COMBATE PIRATERIA DE RADIO Y TV

Mientras otros países sigen promoviendo la radio digital, en el Perú se sigue insisitiendo con la radio analógica.

El Ministerio de Transportes y Comunicaciones (MTC) anunció la instalación de equipos automatizados en 15 ciudades del Perú para combatir la piratería de señales de radio y televisión.

Se trata de torres metálicas de 30 metros de altura, que contarán con equipos y aparatos de fabricación alemana para detectar a las estaciones transmisoras de los servicios de telecomunicaciones que no cuenten con la correspondiente autorización, y que interfieran y distorsionen las señales radioeléctricas de las empresas autorizadas y de radionavegación aérea.

La instalación de los primeros equipos automatizados en las Estaciones de Control del Espectro Radioeléctrico (Estación CER) del MTC comenzará en los próximos días en Chimbote, Huaraz, Huánuco, Cajamarca y Juliaca.  Luego se irán expandiendo por Ica, Pisco, Ayacucho, Tacna, Pucallpa, Tarapoto, Andahuaylas, Chiclayo, Puerto Maldonado y Tumbes.

La instalación se llevará a cabo con el apoyo de personal de un consorcio alemán-colombiano. Según adelantó el MTC, los equipos y antenas no se ubicarán en zonas urbanas ni generarán efectos negativos al ambiente. Tampoco se ubicarán cerca de antenas de radio y televisión, explicó Lorenzo Orrego, Director General de Control y Supervisión de Comunicaciones del MTC.


sábado, 25 de junio de 2016

SAP FORUM 2016 en Latinoamerica

Bajo el lema, “Descubre la simplicidad”, la nueva edición de este encuentro tecnológico anual organizado por SAP esta dedicada a los modelos de negocio más innovadores y basados en la economía digital. Las conferencias abarcan todas las áreas de la empresa, desde el departamento IT al financiero, RRHH, marketing o ventas, con las herramientas colaborativas como protagonistas para una toma de decisiones eficaz.

Entre otros temas, se abordan las novedades incluidas en las últimas versiones de SAP Business Intelligence Suite, SAP HANA Vora, SAP Fiori o S/4HANA, con importantes avances para el análisis en tiempo real; la aplicación del Internet de las Cosas a los procesos industriales, en lo que se conoce ya como Industria 4.0; o las nuevas estrategias de venta multicanal apoyadas en herramientas como SAP Hybris Marketing, SuccessFactors, Ariba, Concur y Fieldglass.

Desde SAP estan convencidos de que la Simplicidad cambiará la forma de vivir y trabajar, permitirá transformar el negocio hacia nuevos modelos antes inimaginables para adaptarlo a la Nueva Economía Digital.

Conscientes de que la Transformación a la Nueva Economía Digital afectará a todas las áreas de la empresa, se han preparado unos contenidos interesantes, tanto para los profesionales de IT, como para los directivos de otras áreas de negocio: Financiero, RRHH y Marketing y Ventas. Las mejores decisiones surgen de la colaboración efectiva entre los directivos de la empresa.

2016 va a ser un año decisivo para el desarrollo de tecnologías punteras que transformen el modo de operar de las empresas, desde los wearables a los dispositivos inteligentes del Internet de las Cosas.




SAP® S/4HANA

SAP a mediados del 2015 presentó en latinoamerica  el ERP de próxima generación, construida sobre la avanzada plataforma de computación in-memory SAP HANA®, se trata de SAP® Business Suite 4 SAP HANA® (SAP® S/4HANA), una familia de soluciones que simplifica sustancialmente las operaciones de las organizaciones al ser desarrollado según los principios del diseño más modernos de experiencia de usuario (UX) SAP Fiori®, lo que permite su uso sobre cualquier dispositivo, de una manera simple, amigable y en tiempo real.


El nuevo ERP lanzado a nivel mundial en febrero 2015, ofrece innumerables innovaciones y simplificaciones sin precedentes. Las decisiones no pueden esperar y con S/4 HANA hoy en día los CEOs están obteniendo información en tiempo real, no importa el tamaño o la complejidad de la operación”, agregó un ejecutivo de SAP.


 SAP S/4 contiene en esta nueva suite las evoluciones enfocada en la simplificación de procesos para los módulos FI, CO, MM, SD, HCM, PM, PORTAL, etc... en lo que SAP denomina:

    Modelado de Datos Simplificado
    Finanzas Simplificadas
    Experiencia de usuario Simplificada
    Soluciones de Inteligencia Empresarial Simplificada

El principal objetivo de SAP S/4 HANA como lo ve es simplificar los procesos y el modelo de negocios de su empresa.

El software SAP S/4HANA fue diseñado para impulsar la innovación sin sacrificar la simplicidad. Establece conexiones en tiempo real entre personas, dispositivos y redes corporativas para promover el surgimiento de modelos de negocios. También contribuye a acelerar la asimilación de las tecnologías asociadas a internet de la cosas (IoT) y a big data.

El modelo simplificado de datos, que permite redefinir su panorama de TI y reducir los costos, ofrece diversas mejoras tecnológicas que funciona sobre cualquier dispositivo, un modelo de datos simplificado; información al instante sobre decisiones empresariales, conocimiento inmediato para transformar en decisiones de negocios al nivel de granularidad más alto y procesos de negocios reimaginados en tiempo real.

Latinoamérica se convirtió en pionera en ventas de esta solución a nivel global, destacándose empresas como Diagnósticos da America (DASA) de Brasil, una de las compañías de salud más grandes y respetadas de dicho país, que utilizará la nueva plataforma para dar soporte a su expansión internacional y a su crecimiento y para poder analizar, en tiempo real, los datos surgidos de los más de 3,000 tipos de exámenes de análisis clínicos y de diagnósticos por imagen. Con SAP S/4HANA la empresa, que procesa más de 20 millones de estudios médicos mensualmente, optimiza sus procesos financieros y planificación de costos lo cual simplifica y sienta las bases para apoyar su crecimiento.


SAP: Presenta 3 Soluciones para IoT (Internet de la Cosas)

SAP ha presentado tres nuevas soluciones de SAP para ayudar a las empresas extraer valor de la Internet de las Cosas (IoT).

Las tres soluciones son
- SAP Mantenimiento Predictivo y solución de servicio
- SAP Conectado a Logística de software
- SAP Ejecución de Manufactura.
 SAP también ha anunciado la incorporación de 500 incrementales desarrolladores dedicados a apoyar distintas iniciativas de lnternet de las Cosas (IoT).

Las soluciones de SAP para Internet de las Cosas (IoT) son impulsados ​​por SAP HANA Cloud Platform, que es el desarrollo de aplicaciones de base y plataforma de habilitación y proporciona la capacidad de generar conocimiento en tiempo real de datos de los sensores y capacidades avanzadas tales como la computación in-memory, geo-espacial, telemática, análisis predictivo y procesamiento de eventos complejos. Además, la HANA Cloud Platform SAP ofrece APIs abiertas que permiten a los proveedores de terceros desarrollar aplicaciones de la IoT.

SAP Mantenimiento Predictivo y de Servicio integrarán las operaciones y análisis en una única plataforma, ayudando a las organizaciones a evaluar los datos históricos y de sensor para apoyar la predicción de un mal funcionamiento antes de que ocurra.

SAP Conectado Logística está previsto que los operadores centro logístico y otros para controlar el tráfico hacia y dentro de un cubo y facilitar la comunicación entre las partes involucradas, incluyendo  aquellos que no tienen una relación directa de las empresas.

SAP Manufacturing Execution versión 15.0 apoyará la integración de los resultados de fabricación con en tiempo real se alimenta en la plataforma SAP HANA, permitiendo a las empresas aprovechan la nube para orquestar y optimizar las operaciones globales, y utilizar el análisis predictivo para impulsar la eficiencia de costes y lograr mayor utilización de activos.


SAP: apuesta por servicios en la nube

La alemana SAP reportó un cambio acelerado de clientes de negocios para software en la nube de Internet. Reportó una utilidad de operación, excluyendo unidades especiales, por 2,130 millones de euros (mde).

El cambio a ventas de software en la nube recortó los márgenes de ganancias para el cuarto trimestre a 38.9 %. Esto fue parcialmente compensado por la fortaleza de su software de soporte.

Los ingresos basados en la nube del cuarto trimestre subieron 72%, impulsados por las ventas de Concur, software para el control de gastos por viajes basado en la nube que SAP compró el año pasado por 7.3 mil millones de dólares (mdd).

La industria del software empresarial está experimentando un cambio de paquetes de software que los clientes ejecutaban en sus ordenadores hacia el software de gestión a través de Internet en centros de datos remotos, por lo que los datos son fáciles de administrar, analizar y utilizar no sólo en las computadoras sino también en teléfonos móviles y otros dispositivos.

SAP dijo que, durante 2014, alcanzó su objetivo anual de ventas de software basado en la nube, que subió 45 % a 1.1 mil mde, lo que sugiere que, al menos por ahora, es capaz de expandirse en el mercado de la nube sin dañar aún más sus márgenes.

COTIZACIÒN EN NASDAQ



CITEL-CEPAL: Alianza TIC 2030 Américas

La Comisión Interamericana de Telecomunicaciones (CITEL) de la OEA, la Comisión Económica para América Latina y el Caribe (Cepal) y distintas universidades suscribieron la Alianza TIC 2030 Américas en Santo Domingo, República Dominicana, para procurar que el acceso a las TIC se incremente de forma considerable antes de 2030.

El conjunto de entidades estableció 4  metas para revertir la pobreza y desigualdad entre los pueblos americanos para brindarles mejores oportunidades laborales, económicas y sociales:

1. Trabajar conjuntamente para contribuir a la meta global de poner en línea a 1 500 millones de personas más en 2020

2. Asegurar que todas las escuelas públicas de las Américas estén conectadas al Internet antes de 2030 y crear contenidos locales relevantes

3. Promover la capacitación digital para contribuir a elevar la calidad de la educación y desarrollar talentos para la nueva economía digital

4. Fortalecer la participación democrática en las Américas a través de las TIC

“Es esencial generar espacios de diálogo entre el sector privado, el sector público y los organismos multilaterales para compatibilizar estrategias que permitan acelerar el logro de los objetivos de desarrollo de la agenda 2030 para el desarrollo sostenible adoptada por las Naciones Unidas el 25 de septiembre de 2015″, indicó la secretaría general de la OEA en un comunicado.

Entre los firmantes del acuerdo están representante de líderes de la industria de tecnología, entre ellos la Fundación Telefónica, Millicom, América Móvil y Cisco System.

Telefónica hizo saber que el desarrollo de América Latina debe estar en la accesibilidad de sus habitantes a las tecnologías .
Cisco expresó que la digitalización de América Latina es transcendental para el futuro de la región, por ser un factor clave para el crecimiento económico, y la cohesión social



eLAC 2018

La V Conferencia ministerial sobre la sociedad de la información en América Latina y el Caribe, se llevó a cabo entre el 5 y 7 de agosto 2015 en México. Su objetivo fue acordar una agenda digital para la región con miras a 2018 (eLAC2018).  Esta conferencia es el principal mecanismo que organiza la Comisión Económica para América Latina y el Caribe (CEPAL),.

La Conferencia Ministerial compartió sede con el Foro de Gobernanza de Internet de América Latina y el Caribe (LACIGF 8). Hubo un intenso diálogo entre los múltiples actores que intervienen en el ecosistema digital y se recogieron inquietudes, ideas y propuestas que se enmarcan en la visión multistakeholder que, según el consenso de la mayoría de los participantes, debe primar para el desarrollo del sector y la generación de beneficios sociales.

El nivel de los retos asumidos en el marco de eLAC 2018 expresa la voluntad de los países latinoamericanos de desarrollarse y fortalecerse mediante el aprovechamiento de las tecnologías de la información. El avance hacia la consolidación de un mercado único digital en la región, que elimine de manera gradual las barreras para la conectividad entre países; la inclusión en el uso de las telecomunicaciones de los sectores sociales menos favorecidos, con la finalidad de reducir las brechas de capacidades y oportunidades entre la población; la transición de una economía de la Internet de consumo a la Internet de la producción, que genere efectos económicos y sociales positivos y expansivos, son algunos de los temas fundamentales de una agenda que busca lograr que Latinoamérica alcance un rol primordial en el sector a nivel global.

El eLAC2018 será un insumo para el proceso mundial de revisión de resultados y proyección de un nuevo acuerdo en el marco de la Cumbre Mundial Sobre la Sociedad de la Información (CMSI), realizada por la Asamblea General de las Naciones Unidas a fines de 2015.

ANTECEDENTES

El Plan regional sobre sociedad de la información cuenta ya con tres versiones (eLAC2007, eLAC2010 y eLAC2015). El reto es actualizar los compromisos regionales, identificando nuevos desafíos y prioridades, con especial énfasis en las tendencias marcadas por la ubicuidad de Internet, la convergencia tecnológica, las redes de alta velocidad, la economía digital, el gobierno electrónico y la analítica de grandes datos (big data), sin dejar de lado las necesidades pendientes en acceso y uso de las tecnologías de la información y de las comunicaciones (TIC).

El Plan de acción sobre la sociedad de la información y el conocimiento de América Latina y el Caribe, eLAC2015, fue aprobado en Nov. 2010 en Lima, Perú, como una estrategia de largo plazo con miras hacia el 2015, acorde con los Objetivos de Desarrollo del Milenio y la Cumbre Mundial de la Sociedad de la Información (CMSI o WSIS). Recogiendo las experiencias de eLAC2007 y de eLAC2010-


El Plan apunta a la implementación de políticas públicas para la incorporación de las tecnologías de la información y de las comunicaciones (TIC) como instrumentos de desarrollo económico e inclusión social. De esta manera, se constituye en una agenda compartida que promueve la integración y articulación de las políticas con base en las necesidades y prioridades regionales.


 El Plan de acción permite el intercambio de experiencias y buenas prácticas, la elaboración de estudios y documentos analíticos, la organización de seminarios y talleres, y la ejecución de concursos y campañas informativas, entre otras actividades.


EL PLAN

El Plan cuenta con 10 lineamientos, 6 prioridades y 26 metas distribuidas dentro de 8 áreas temáticas:
i) acceso,
ii) gobierno electrónico
iii) medio ambiente
iv) seguridad social
v) desarrollo productivo e innovación
vi) entorno habilitador
vii) educación
viii) una institucionalidad para una política de Estado.

 Las prioridades del Plan de acción eLAC2015 apuntan a priorizar la universalización de la banda ancha, alcanzar un gobierno electrónico transaccional y participativo, garantizar el acceso, la seguridad y la continuidad de la atención médica de los servicios de salud mediante las TIC, lograr el acceso a las TIC de todas las MIPYME, promover el empleo de las TIC para la integración regional, y universalizar el acceso de TIC en la educación.

METAS

1. ACCESO


2.  GOBIERNO ELECTRONICO



3. MEDIO AMBIENTE


4. SEGURIDAD SOCIAL


5. DESARROLLO PRODUCTIVO E INNOVACION


6. ENTORNO HABILITADOR


7. EDUCACION

El acceso da internet en escuelas




8. UNA INSTITUCIONALIDAD PARA UNA POLITICA DE ESTADO
   Pendiente de establecerse metas


MONITOREO

La plataforma institucional eLAC2015 cuenta con un mecanismo de seguimiento  conformado por tres instancias de coordinación y cooperación: la conferencia de seguimiento, la mesa de coordinación y
los puntos focales, además de tres observadores que representan a la sociedad civil, el sector privado y la
comunidad técnica de Internet de la región.


El monitoreo intermedio es un balance sobre los avances en el cumplimiento de las metas del Plan, evaluando las brechas existentes al interior de los países, entre países de la región y entre la región y los países más desarrollados, para reconocer los avances y plantear un conjunto de desafíos hacia 2015.





PROGRAMAS EN EDUCACION DIGITAL LATINOAMERICANOS

 Argentina destinó 262,181 dólares. Programa Conectar Igualdad,
Colombia se aplicaron 201 millones de dólares. Programa Computadores para Educar,
Uruguay destinaron 42.3 millones de dólares
Chile invirtieron 30.21 millones dólares. Programa Me Conecto para Aprender
México ha destinado 337.5 millones dólares. Programa @prende Mx.

La UNESCO hace un llamado para que los países de la región pongan por delante la definición y distribución de sus programas educativos.

Desde la lógica de la educación como un derecho, el deber de los países es cuidar que todos los estudiantes accedan a una educación de calidad  y entender que la tecnología puede ser un excelente aliado para mejorar los sistemas educativos, ofrecer experiencias en aprendizaje más ricas a los estudiantes para simplificar las tareas de docentes y enriquecerla, pero que siempre estén ordenados por los objetivos de calidad educativa.

Un consultor de la UNESCO pide que se deje de lado la lógica de creer que solo con dotar de tecnología porque “está de moda” o es atractiva debe de implementarse un programa y también dijo que se debe dejar de lado “la lógica de usar la tecnología como un elemento de propaganda política. Lo importante es que la tecnología sea pensada como un aliado indispensable y fundamental para mejorar la calidad educativa”.



La Organización de Estados Iberoamericanos (OEI) creó el programa Luces para Aprender, que lleva a cabo proyectos piloto en 14 países de América Latina donde se eligieron escuelas donde se montan paneles solares para dotar de electricidad y conexión a Internet a los centros educativos.

viernes, 24 de junio de 2016

IoT: 3GPP completó el estándar de NB-IoT

3GPP completó  la estandarización de NB-IoT (Narrow Band IoT), la tecnología de banda angosta (NB) desarrollada para el Internet de las Cosas (IoT) a implementarse en el próximo release 13 de LTE (LTE Advance Pro).

Con esta estandarización, los operadores podrán utilizar tecnologías como NB-IoT, eMTC y EC-GSM-IoT para atender IoT. La estandarización promoverá el uso de las tecnologías Low Powered Wide Area (LPWA) en espectro licenciado. Los nuevos estándares permitirán a los operadores optimizar sus redes móviles existentes con una actualización a :
EC-GSM-IoT para las redes 2G
LTE-MTC (LTE Machine Type Communication) o Cat-M para las redes 4G,
NB-IoT para redes 2G y 4G

NB-IoT es una tecnología apoyada por empresas como Vodafone, China Mobile, China Unicom, Telefónica, Telecom Italia, Ericsson, Huawei, Intel, Nokia y Qualcomm, además de la GSMA.
 AT&T anunció en febrero 2016 que iniciaría el despliegue de NB-IoT para sus servicios de Internet de las Cosas

Tecnologías para IoT




1ra red LoRaWAN para IoT operará en Corea del Sur

Samsung Electronics formó una alianza con el operador móvil SK Telecom para desplegar “la primera red comercial a nivel mundial LoRaWAN para Internet de las Cosas” (IoT) en Corea del Sur.

LoRaWAN (red de área extendida de largo alcance) está diseñada específicamente para los objetos que funcionan con baterías conectadas a Internet. LoRaWAN representa un intento de estandarizar las LPWAN (redes de área extendida de baja potencia), que tienen el propósito de ofrecer una alternativa más barata y de más bajo consumo de Bluetooth, Wi-Fi y redes celulares para Internet de las Cosas.

La red se implementará usando la banda  900 MHz, y el lanzamiento se prevé que sea en Daegu, la cuarta ciudad más grande del paí, que se centrará en la creación y adopción de infraestructura para soluciones de energía renovable, plataformas en la nube y analítica de big data para servicios médicos y salud, así como infraestructura de vehículos eléctricos para coches autónomos. Los faroles de la ciudad podrán recolectar información del clima y del tráfico utilizando sensores IoT, lo que permitirá un ahorro en costos al ajustar automáticamente el nivel de iluminación y al enviar un informe de estado de la contaminación del aire.

Según  TechCrunch, el gobierno de Corea del Sur planea invertir 100,000 millones de wones para el año 2024 en coches inteligentes e IoT, como parte de una iniciativa para promover la industria del startup en el país y disminuir su independencia en la fabricación de semiconductores.



WiFi HaLow - IEEE 802.11ab

Wi-Fi Alliance  designó como Wi-Fi HaLow a los productos que incorporan la tecnología IEEE 802.11ah. El estándar de Low Power Wide Area (LPWA) opera en bandas de frecuencia por debajo de un GHz, ofreciendo a los productos certificados por la Asociación, conectividad de mayor alcance con un consumo energético mínimo.

HaLow extiende Wi-Fi a la banda de 900 MHz, habilitando una variedad de casos nuevos de eficiencia en el uso de energía en los segmentos de wearables, domótica, automóviles conectados, telemedicina y aplicaciones para la industria, el comercio minorista, la agricultura y los entornos de ciudades inteligentes.

Con un rango que casi duplica el alcanzado por el Wi-Fi actual, HaLow ofrecerá una conexión más robusta en entornos difíciles que exigen una mayor capacidad de penetración, adoptando al mismo tiempo los protocolos y beneficios característicos de esta tecnología, como la interoperabilidad de múltiples proveedores, una sólida seguridad de nivel gubernamental y una sencilla instalación.

Muchos de los dispositivos compatibles con Wi-Fi Halow podrán operar asimismo en 2,4 y 5 GHz y soportarán conectividad basada en IP para conectarse de forma nativa a la nube, lo cual potenciará el  Internet de las Cosas (IoT). Los despliegues densos de dispositivos también se beneficiarán de su capacidad para conectar miles de dispositivos a un solo punto de acceso.

A finales de diciembre de 2015, la GSMA se unió 3GPP con el objetivo de unificar el fragmentado mercado de soluciones para LPWA. De acuerdo a la consultora Machina Research, el 2016 será clave para conocer el desarrollo y escalabilidad de esta tecnología. Verizon y Ericsson parecen compartir este pronóstico y anunciaron en la última CES que trabajaran en conjunto en el desarrollo de soluciones para este mercado.


INICIATIVA MOBILE  IoT

La GSMA lanzó en Ago. 2015 este proyecto diseñado para abordar el uso de soluciones Low Power Wide Area (LPWA) en espectro licenciado.

Las primeras demostraciones en vivo de las soluciones para áreas extensas de bajo consumo (LPWA) en el espectro autorizado se exhibirieron en el Congreso Mundial de Telefonía Móvil -2016. Se mostraron las soluciones respaldadas por tres normas tecnológicas complementarias:
-  NB-IoT (Narrow Band IoT),
-  EC-EGPRS (Extended Coverage EGPRS) ,  EC-GSM-IoT (Extended Coverage GSM for IoT)
- Cat-M (LTE Machine Type Communication).

La iniciativa Mobile IoT de GSMA ha alineado al sector móvil con estas normas, que han sido aceptadas por 3GPP para Release 13. La disponibilidad de las soluciones comerciales en 2016 eliminará la fragmentación del mercado, ofrecerá garantía de mercado y ayudará a acelerar la Internet de las cosas (IoT) gracias a la popularización de los dispositivos conectados con operadores móviles muy económicos.

Entre los partidarios se encuentran operadores móviles líderes, fabricantes de equipos originales, chips, módulos y compañías de infraestructura. AT&T, China Mobile, Deutsche Telekom, Ericsson, Huawei, Qualcomm y Vodafone son algunos de ellos.

Las redes LPWA están diseñadas para aplicaciones M2M con velocidades de datos bajas, vida larga de batería y que operan sin supervisión durante largos periodos de tiempo.



SIGFOX: Llegó a Brasil con tecnología LPWAN

SigFox (Francia) llegó a Brasil, su mercado 18, con lo que extiende su presencia hacia América Latina. El arribo es de la mano de WND, una compañía encargada de la expansión de la empresa de IoT en la región. La compañía está presente en EEUU, Europa, Asia Pacífico y Medio Oriente.

A principio de abril 2016, SigFox se alió con Microsoft para utilizar Azure IoT Hub para proporcionar un medio seguro para el control de dispositivos. Este 2016 SigFox firmó un contrato con el grupo de telecomunicaciones Altice, quien integrará la red propietaria de Internet de las Cosas de Sigfox en sus operaciones de Francia y globales. En la región, Altice cuenta con operaciones en República Dominicana.


ANTECEDENTES

WiFi Carrier Grade ventas aumentan 23%


Infonetics Research augura promisorias perspectivas a Wi-Fi Carrier Grade con respecto a la tecnología y su despliegue, especialmente por parte de operadores Tier-1, para 2015. Según esta consultora, las ventas de equipos Wi-Fi Carrier Grade sumaron 336 millones de dólares para los proveedores de este tipo de equipos durante los últimos seis meses de 2014. Esta cifra fue un 23% superior a los ingresos de la primera mitad del año pasado.

La mayoría de los ingresos provinieron de la venta de puntos de acceso, mientras que un 22 % se obtuvo por la venta de controladores Wi-Fi. Cisco, Huawei y Ruckus siguen siendo los líderes en el segmento Wi-Fi Carrier Grade, dice Infonetics.


Se espera un salto importante —88 %— en el incremento de los ingresos en 2015 con respecto a 2014. Esto se debe no sólo a que los operadores están interesados en poder utilizar a esta tecnología para aliviar (offload) el tráfico de sus redes macro, sino que con las mejoras en Wi-Fi con 802.11ac y Hotspot 2.0 (o Passpoint), los operadores ven oportunidades para generar nuevas fuentes de ingreso mediante el análisis de datos (Big Data), servicios de localización Wi-Fi y roaming.


La instalación de small cells con Wi-Fi incorporado también ayudará a aumentar las ventas de equipos Wi-Fi Carrier Grade.

Por último, la consultora alerta de que los puntos de acceso Wi-Fi con capacidades SIM ya están superando en ventas a los puntos Wi-Fi hotspot convencionales.

Asimismo  la consultora ABI Research anunciaba que la llegada de LTE-Unlicensed (LTE-U) no estaba frenando las inversiones en Wi-Fi Carrier Grade.

domingo, 19 de junio de 2016

INCLUSION DIGITAL: El proyecto Cloud4all

La falta de tecnologías accesibles puede aumentar la exclusión social, mientras que su avance puede mejorar el acceso a la salud y los servicios públicos, la empleabilidad, la productividad o el arraigo de las personas en las relaciones sociales y las redes.

Los nuevos sistemas no solo tienen que ser cada vez más accesibles, sino que deben serlo desde todos los dispositivos y en todos los contextos (casa, trabajo, biblioteca, clase, viajes).

Este es el objetivo de Cloud4all, financiado por el Séptimo Programa Marco (7PM) de la Unión Europea. Este proyecto internacional, en el que participan  el Centro de Iniciativa Emprendedora e Innovación (EIC- European Innovation Council), pretende avanzar en los conceptos que hay detrás del proyecto Global Public Inclusive Infrastructure (GPII).

El proyecto Cloud4all, que cuenta con la participación de 24 socios y 3 colaboradores de 9 países europeos, además de Canadá y Estados Unidos, desarrollará las piezas clave de la GPII, construyendo la base de conocimiento y algoritmos necesarios y evaluando las posibilidades de funcionar que tiene el concepto en todas las plataformas, tecnologías y aplicaciones.

El proyecto Cloud4all/GPII se ha marcado los siguientes objetivos:
- Accesibilidad simple e instantánea para todos.
- Acceso desde cualquier lugar y dispositivo.
- Oferta y demanda mejor conectadas.
- Método asequible para ofrecer la diversidad necesaria.



Desde la perspectiva de la innovación, Cloud4all y GPII pretenden desarrollar un paradigma completamente nuevo en la accesibilidad, mediante el aumento de la adaptación de los productos y servicios individuales de segunda generación, con personalización automática de cualquier producto o servicio de uso frecuente. Esto se logra mediante el uso de tecnologías en la nube para activar y aumentar cualquier tipo de accesibilidad que incorpore el dispositivo o que el producto o servicio tenga instaladas, o mediante la recomendación de las soluciones de terceros más apropiadas en base a las necesidades y preferencias del usuario.

El concepto del proyecto se basa en la creación de conjuntos de preferencias de usuario, almacenadas de forma local o en la nube. Estos conjuntos de preferencias se emparejan automáticamente con productos y servicios con las características de accesibilidad especificadas y se configuran de acuerdo a las preferencias del usuario y el contexto de uso:
- En cualquier lugar (cualquier dispositivo que encuentre el usuario en cualquier sitio).
- En cualquier dispositivo (PC, móvil y teléfono o televisión inteligente).
- Sin interrupciones y de manera integral (al configurar tanto el contenido e interfaz de usuario).
- Incrementando la accesibilidad del producto cuando sea necesario, ya sea a través de aplicaciones web especiales, tecnología asistida basada en la nube

Para abordar estas cuestiones, una coalición internacional de organizaciones y particulares se han unido para proponer el desarrollo de la GPII, que supone la mejora de las tecnologías de plataforma y de red para crear una infraestructura que simplifique el desarrollo, la entrega y el apoyo de tecnologías de acceso y proporcione a los usuarios una forma de aplicarlas de manera instantánea y automática, en cualquier ordenador u otras TIC.

GPII es un proyecto llevado a cabo por Raising the Floor (RtF), un consorcio de organizaciones académicas, industriales, no gubernamentales y particulares.


El propósito de GPII es asegurar que todo el mundo que se enfrenta a barreras de acceso a causa de discapacidades, analfabetismo, falta de conocimientos digitales o edad, pueda utilizar la información de Internet, sus comunidades y sus servicios de educación, empleo, vida diaria, participación ciudadana, salud y seguridad con independencia de sus recursos económicos.


GPII se está desarrollando a través de la financiación de diferentes iniciativas y programas europeos y norteamericanos, tales como Cloud4all, PROSPERITY4all, US DeptofED y UIITA RERC.

La arquitectura de Cloud4all proporcionará las API (interfaces de programación de aplicaciones), las prácticas de codificación y los marcos que permitan construir, hacer crecer y sostener a largo plazo un ecosistema para la accesibilidad personalizada.

La arquitectura Cloud4all ha sido diseñada para proporcionar las herramientas de desarrollo de software y técnicas que fomentarán:
- El desarrollo a través de múltiples plataformas y dispositivos.
- La adaptabilidad a la nube.
- La capacidad de ampliación y crecimiento a largo plazo.
Respondiendo a la filosofía de GPII, el código desarrollado en Cloud4all pretende ser utilizable por personas reales. Como resultado, el código, sobre todo el núcleo central que soporta la configuración y extensión del sistema con nueva funcionalidad a lo largo del tiempo, debe ser sólido, estable y con visión de futuro.

Para alcanzar estos objetivos, la arquitectura de Cloud4all hace hincapié en la importancia de la separación de intereses, API de servicios orientadas a datos, inversión de control, pruebas unitarias y revisión del código comunitaria. Estos enfoques aseguran que el sistema Cloud4all se puede ampliar y reconfigurar de manera simple para sostener nuevos usos, características y componentes en el futuro sin necesidad de grandes cambios en el código.

La arquitectura Cloud4all se basa en los siguientes paradigmas tecnológicos:
- Arquitectura orientada a la web (WOA).
- JSON, REST y repartición.
Cloud4all está en fase de prueba de concepto y pretende conseguir la autoconfiguración de las características de accesibilidad de los siguientes dispositivos, plataformas y aplicaciones: sistemas operativos Microsoft Windows 7 y Linux/Gnome, extensión para Chrome o para Firefox; teléfonos con Simple Java, Android, NVDA, WebAnywhere, SAToGo, EASIT4all, Sociable en MS Pixelsense, SuperNova AT, Maavis, Mobile Accessibility para Android, Read&Write Gold, Omnitor Total Conversation, BrowseAloud; aplicaciones de banca online; máquinas de venta de billetes y entradas; simulaciones de controladores de casas inteligentes; televisión digital o Easy One Communicator.

Al mejorar sustancialmente la accesibilidad en los próximos diez años, Cloud4all ampliará el acceso y mejorará el uso de productos y servicios de las TIC en general, ya sea en el comercio, la administración, la sanidad y la cultura electrónicos o la banca online. Cloud4all también trabajará para facilitar las aplicaciones de trabajo online, plataformas de búsqueda de empleo, aplicaciones de aprendizaje online y otras oportunidades, especialmente para las personas mayores y con discapacidad.




VPN: Versiones gratuitas

Usamos una VPN si queremos conectartarnos a una red remota a través de internet o conectar múltiples redes de manera segura. También si nos preocupa la privacidad en internet o si queremos evadir restricciones de acceso regionales.

Una VPN (Virtual Private Network) es una red privada que atravieza una red pública, como internet, permitiendo que los dispositivos conectados puedan enviar y recibir datos como si estuvieran conectados a una red local.

La VPN nos permite extender la conectividad geográficamente: ejemplo, si quieres ver una película que sólo está disponible en USA podrás conectarte a una red local en este país y consumir el contenido sin problema.

La VPN nos brinda seguridad en conexiones públicas: Si estás conectado a una red pública en un aeropuerto una VPN  te permitirá  garantizar que nos datos no sean interceptados por sniffers

La VPN nos permite evadir bloqueos en internet por controles de acceso a internet. Es decir, no puedes visitar ciertas páginas. Con una VPN puedes evadir este tipo de restricciones.

Con una VPN evades restricciones de tu ISP que controlan el tráfico de ciertos servicios en la web. como YouTube. Con una VPN, todos tus datos transferidos entre un dispositivo e internet se cifrarán y el ISP no podrá determinar con exactitud cómo restringir todos esos servicios.

VPN de Acceso Remoto: Es el más usado. Los usuarios se conectan desde sitios remotos a través de internet a redes locales. Los empleados lo usan para tener acceso a la red empresarial.

VPN Punto a punto: Conectan redes completas a otras. una oficina a su sede central.

Para conectarse a una VPN se tiene que ser  un cliente VPN. La gran mayoría de los sistemas operativos cuentan con uno de manera nativa. Se debe  configurar  a tu VPN, indicando el servidor al que te quieres conectar, el tipo de encriptación de la VPN y la autenticación.

Tambien existen servicios en internet que te permiten descargar un cliente, para ahorrarte esos pasos de configuración. Los mas conocidos son:


Sencillo de usar. Con soporte para Windows, OS X, iOS y Android; y permite navegación en 13 países diferentes.  La versión gratuita con 500 MB mensuales; pero puedes aumentar 1.5GB todos los meses enviando un tweet, o por 4.55 dólares al mes puedes tener el servicio ilimitado.

Se puede usar en plataformas como OS X, Windows, iOS y Android. Desde 2.49 dólares al mes o 29.95 al año, puedes obtener la versión Elite. Permite conexiones a través de países como Alemania, Canada, Australia, Hong Kong, India, China, Japón, Reino Unido y Estados Unidos. La versión gratuita muestra anuncios en la navegación y tiene algunas restricciones con el ancho de banda. 

Fácil de usar, con versiones para Windows, MAC, iOS, Android. Con la versión gratuita tienes restricciones de ancho de banda; la versión para todo el tráfico cuesta 29.95 dólares al año.

Versión gratis con 1GB  al mes, correo electrónico y mensajería instantánea. Con la versión de pago de 4.99 euros, tienes acceso a más de 500 servidores desde 31 países.

Versión gratis con 2 GB de tráfico, configurables en dos dispositivos diferentes, sólo funciona en Windows.

Utilizada las funciones de TOR , nos da 1 GB de tráfico gratuito cada mes.

con tráfico ilimitado y gratuito en ordenadores, en teléfonos y tabletas con 500 MB mensuales. 

Versión gratis con 100 MB de tráfico mensual. con Windows y OS X

Versión de software libre que no es tan fácil de configurar, pero que te dará más control en la configuración.




sábado, 18 de junio de 2016

CAT 8 para el transporte a 40 GbE en Centros de Datos

La IEEE comenzó el desarrollo de los estándares para redes LAN en 1980, y a la fecha han sido publicadas normas para 6 velocidades: 10MbE, 100MbE, 1GbE y 10GbE en cobre, incluyendo desarrollos adicionales de 40GbE y 100GbE en fibra óptica.

La Ethernet Alliance es una organización que fue conformada en el 2006 por un consorcio de fabricantes de la industria, y está dedicada a lograr  el avance de las tecnologías de Ethernet. La última Hoja de Ruta Ethernet publicada en 2016, muestra los últimos avances y contiene información histórica, así como estimaciones futuras de las próximas velocidades, incluyendo no solo 40G, sino velocidades intermedias como 2.5G, 5G, 25G y futuros 400G.

El concepto de las redes de nueva generación se comenzó a desarrollar en el 2012, con el objetivo proveer una plataforma de migración estándar para redes de mayor velocidad. Aunque existen opciones de transporte a través de fibra óptica, se requiere una opción atractiva en costo/alcance y manteniendo las ventajas de un enlace de cobre en operación y suministro de energía remota.

Pra que los sistemas de cableado provean la capacidad de transportar tecnologías más veloces, deben trabajar hasta frecuencias más elevadas (2GHz para C8). Esto implica cables y conectores con alta protección contra la interferencia/ruido, siendo el más crítico el AXT (diafonía exógena o ruido generado por cables adyacentes). Los sistemas de cableado de cobre con blindaje proveen la mejor protección contra la interferencia, razón por la cual la categoría 8 será blindada. La TIA y la ISO están desarrollando alternativas diferentes.

El data center demanda categoría 8
El centro de datos requieren mejores tiempos de respuesta (máxima velocidad), por lo tanto es en estos espacios de misión crítica donde se requiere la aplicación de la categoría 8. Las aplicaciones objetivo del 40GbE incluyen: End of Row, Mid of Row y Top of Rack. En todos estos escenarios la longitud del enlace es inferior a los 30 metros.

Es importante que los administradores de los centros de datos construyan una infraestructura de telecomunicaciones que esté en capacidad de soportar tanto las aplicaciones actuales como las futuras. Por lo tanto la inversión inicial debe ser acorde a la tendencia tecnológica de la compañía que va a desarrollar el proyecto, y con base en las recomendaciones establecidas en las normas internacionales y las tendencias de la industria.

La simplicidad del despliegue y operación de las tecnologías Ethernet la ha mantenido como primera opción de adopción de TI, manteniendo la interfaz común 8P8C (RJ45) y capacidad del puerto para autonegociar la velocidad de transmisión son el dispositivo remoto, facilitando la inversión progresiva en la migración 10/100/1000 y ahora 40G. Adicionalmente, desde la aparición del estándar IEEE 802.3az (Ethernet Eficiente en Energía) los nuevos dispositivos logran un consumo menor de energía y apoyan el despliegue de un centro de datos más eficiente.

NORMATIVIDAD EN SISTEMA DE CABLEADOS

Velocidades Ethernet

Base T -  Hoja de ruta

ACCESO - Velocidades


PoE - Power over Ethernet

BLACKPLANE


40GbE


100GbE



ANTECEDENTES

A fines del 2012 el Subcomité de cableado de cobre TIA TR-42.7 adoptó la denominación Categoría 8 para su sistema de cableado de par trenzado balanceado de última generación. Esta ha sido el resultado del proyecto ANSI/TIA-568-C.2-1 del 2011 para crear un sistema de cableado para soportar 40 Gbps.

La TIA que especifica sistemas de cableado de hasta categoría de rendimiento 6A, no adoptó la categoría 7 y 7A de la ISO/IEC. En cambio, la TIA decidió llamar a su próxima generación de sistemas de cableado categoría 8 para evitar confusión con los estándares ISO/IEC de categoría 7 y 7A.

Las especificaciones TIA de CAT.8 describen un rendimiento de transmisión de hasta 2 GHz, mientras que la CAT. 7A de ISO/IEC  hasta 1 GHz, pero los límites de rendimiento propuestos para la categoría 8 hoy no cumplen o superan los requisitos de Categoría 7A hasta 1GHz.

La categoría 8 tendrá una topología de canal desplegado diferente a 7A por lo que no será un superset  de dicha categoría. Al contrario los parámetro de transmisión, excepto la pérdida de retorno y los límites de enlace permanente  son más severos que Cat. 8 hasta 1GHz. En el caso de los parámetros de crosstalk internos, cat. 7A supera el rendimiento de Cat. 8 en más de 20 dB. Asimismo la categoría 7A se especificó a 1 GHz, pero el  IEC 61076-3-104 v3, extiende el rendimiento del conector de categoría 7A a 2GHz.

 La situación de tener dos especificaciones de cableado especificados a 2 GHz, con la categoría 8 con mucho menor rendimiento que la categoría 7A, realmente va a crear confusión.

ISO/IEC tuvo problemas para definir dos nuevos grados de cableado (apantallado y completamente apantallado) para soportar la transmisión de datos de 40 Gbps. Luego ISO/IEC aprobó  la clase I para  describir un cableado construido a partir de componentes de categoría 8.1 de conector RJ-45 apantallados modulares y clase II para describir el cableado construido a partir de componentes categoría 8,2 completamente apantallados.


Resumiendo
Con la CAT. 8 de la TIA  la regla de oro de que una categoría superior es una superserie de categorías inferiores se ha roto. Las soluciones de categoría 7A (ISO/IEC) totalmente apantalladas es hoy el sistema de cableado de par trenzado de más alto rendimiento con mayor inmunidad EMI / RFI y capacidad de compartición de cableado que las soluciones de tipo RJ-45, asimismo la ISO/IEC está trabajando  para caracterizar la capacidad del cableado 7A para soportar la transmisión de 40 Gbps.

CPD: DatacenterDynamics Converged 2016 en Bogotá

El DCD Converged Colombia 2016 fue la cita con los expertos alrededor de todos los temas relativos a los Centros de Datos. Allí se presentaron más de 40 ponencias nacionales e internacionales, y se contó con la visita de más de 800 empresarios que lograron descubrir un gran cúmulo de posibilidades, productos, servicios y asesorías.

Espacios como el DCD Converged, se han convertido en la oportunidad de aprender, compartir y realizar buenos encuentros de negocios alrededor del tema, lo cual redundará en más desarrollo y posibilidades para el crecimiento digital del país”, agregó José Luis Friebel, CEO para Iberia y Latinoamérica de DCD Group.

El surgimiento de nuevas tecnologías como el Internet de las Cosas (IoT), La Nube, el BigData, la modelación de ciudades inteligentes y el desarrollo de una industria más inmersa en la tecnología (4.0), representan una gran oportunidad para el sector de los Centros de Datos.

No por poco será importante el cuidado e interacción de los datos, la seguridad de la información como un elemento no solo de máquina física sino de máquina virtual, la optimización energética para encontrar amigabilidad con el medio ambiente, el almacenamiento, y la velocidad de procesamiento, que catapultará procesos cada vez más robustos y eficientes para la industria.

El DCD Converged Colombia 2016 también se ha convertido en el espacio por defecto para el entrenamiento de profesionales del Centro de Datos, con certificaciones y temas sensibles alrededor de la convergencia, la interoperabilidad y la creación de DataCenters más amigables con el medio ambiente. Alineando a cada profesional con las mejores prácticas y las nuevas tecnologías que aportan herramientas sensibles, para la optimización de todos los procesos de misión crítica.

“en 2020 habrá más de 25 millones de dispositivos conectados y aproximadamente unos 50 zettabytes de información, lo cual plantea múltiples preguntas, que seguirán encontrando respuesta, en nuestras próximas ediciones”, expresó el señor Friebel.

El DCD seguirá su camino por la región durante este segundo semestre de 2016 y estará próximamente en Perú y Chile.




OpenPOWER:  La Fundación OpenPower fue fundada en 2013. Las empresas miembros están habilitados para personalizar los CPU y plataformas de sistemas para la optimización e innovación para sus necesidades de negocio. Estas innovaciones incluyen sistemas personalizados para centros de datos de gran tamaño o warehouse, la aceleración de la carga de trabajo a través de GPU, FPGA o avanzada I/O,  Plataforma  de optimización para aplicaciones de  SW, o la explotación avanzada de tecnología de hardware.


CEEDA

CEEDA (Certified Energy Efficiency in Data Centres Award) es un programa de evaluación de la eficiencia energética en los centros de datos de ámbito internacional, independiente y no relacionado con proveedores o fabricantes específicos. DC-Professional Development extiende a Iberia y Latinoamérica un programa que, hasta la fecha, estaba disponible para las organizaciones con centros de datos ubicados en regiones de Europa y APAC..

CEEDA proporciona una evaluación auditada y certificada de la implementación de las mejores prácticas en eficiencia energética dentro de un centro de datos.

El ciclo de evaluación dura dos años y comprende una evaluación inicial completa y una segunda evaluación de seguimiento un año después.

La evaluación inicial proporciona un análisis detallado de la implementación de un conjunto de mejores prácticas de eficiencia energética en la gestión mecánica y eléctrica (M&E), gestión de las tecnologías de la información (TI) y la gestión operativa.

La segunda evaluación de seguimiento permite la evaluación de los impactos en cuanto a eficiencia energética del plan de acción, del despliegue de las infraestructuras nuevas y de los nuevos servicios que se brindan. También permite transferir al cliente conocimientos prácticos sobre los últimos avances en materia de eficiencia energética a nivel mundial.

Los beneficios que la certificación CEEDA aporta a los data centers son, entre otros, obtener un marco de disciplinas que se pueden utilizar para crear una estrategia de mejora del rendimiento y la eficiencia energética en todas las instalaciones; la ratificación de la aplicación de buenas prácticas sin poner en riesgo la disponibilidad de los servicios; el descubrimiento del potencial de ahorro económico asociado a consumos ineficientes de energía dentro de su centro de datos; establecer un conjunto de métricas y mejores prácticas que permiten al seguimiento, presentación de informes y la minimización de las emisiones de carbono, ayudando a mitigar el impacto de una potencial legislación de reducción de carbono, y finalmente, la transferencia de conocimientos prácticos sobre los últimos avances en la eficiencia energética en todo el mundo.

Algunas de las organizaciones que participan en el programa CEEDA son NHBC, Fujitsu, Sanger Institute, The co-operative, Westpac, Universidad de St. Andrews, CenturyLink o ARM.


DCD 2014

El l 5º DatacenterDynamics Converged 2014 en Bogotá demostró  que sigue siendo el referente de la industria del centro de datos en Latinoamerica. Más de 500 asistentes, 37 ponentes y casi 30 patrocinadores se dieron cita en este evento organizado en 4  temáticas: Build&Strategy, Power& Cooling, IT Networks y Colo&Cloud.

Las novedades fueron:
El Solution Stage, se  trata de un espacio donde los proveedores pudieron desarrollar presentaciones de producto de unos 15 minutos de duración dirigidas a ofrecer a los asistentes información detallada sobre tecnología, innovación o solución específica.

Los workshops que se impartieron, fueron:
“Maximizando la eficiencia energética”, taller impartido  Robert Sullivan, quien mostró las posibilidades de eficiencia energética con ejemplos prácticos
“Aplicaciones de Cloud en un entorno real”, donde el experto Cristian Ruiz Henao, Ingeniero de Plataforma en DirecTV Panamericana, abordó las soluciones de backup en la nube.

Conferencias destacadas: operando con eficiencia en el data center, tendencias de futuro para nuevos data centers, los retos del Big Data para el centro de datos y aplicaciones de cloud en un entorno real.