lunes, 30 de enero de 2017

DINERO ELECTRONICO: Facebook Payments

Facebook podría ser el banco con 1.600 millones de clientes repartidos por todo el mundo, con los que se puede hablar diariamente sin que se sientan acosados. Un banco que sabe todo de sus usuarios: de dónde son, con quién salen, a dónde les gusta ir, qué coche prefieren, cuáles con sus películas favoritas... Un banco que cae bien a sus clientes y con el que se sienten identificados. El banco Facebook, podria ser la  nueva pesadilla para la banca tradicional.

Tal vez Facebook no pueda llegar a ser un a banco que captar ahorros y realiza préstamos, pero podría jugar un papel importante en los intercambios de dinero, préstamos entre particulares y  pagos online. Y lo  más peligroso para la banca tradicional es que Facebook o Google podría dar servicios bancarios sin cobrar comisiones porque se financian con publicidad.

En España Facebook se ha inscribito en el Registro Oficial de Entidades del Banco de España el 30 de diciembre 2016 con la denominación Facebook Payments International y domicilio en Dublín, que por motivos fiscales, está ubicada su sede europea. El Banco de España permite desde ahora a Facebook emitir, distribuir y reembolsar dinero electrónico, enviar dinero y ejecutar operaciones de pago, incluida la transferencia de fondos.

El usuario de Facebook, sólo debe vincular una tarjeta bancaria tradicional Visa o Mastercard a su cuenta de mensajería instantánea Facebook Messenger, y a partir de entonces ya se pueden realizar transferencias y pagos. La licencia concedida por el Banco de España permite a Facebook desarrollar productos como donaciones caritativas o pagos de persona a persona, como en Estados Unidos.

Aunque de montos pequeños, este tipo de operaciones crean un importante vínculo de afinidad entre los clientes y promueven un clima de confianza que es básico para cualquier entidad financiera.

El servicio de pagos electrónicos está creciendo de forma exponencial por el cada vez mayor uso de los smartphones para realizar este tipo de operaciones, que reportan importantes ingresos en comisiones, como Apple (Apple Pay), Samsung (Samsung Pay) y Operadores como Orange, con  Orange Bank.

Los bancos tradicionales en España han reaccionado con el lanzamiento de la plataforma de pagos entre particulares Bizum, desde la que se pueden realizar las mismas operaciones que a través de Facebook. ING hace un año lanzó su propia aplicación, denominada Twyp.


 En sus tres primeros meses de vida, Bizum ha conseguido 300.000 usuarios, que han realizado transacciones por 15 millones de euros. El importe medio por operación es de 45 euros, ya que las transacciones más comunes son los gastos compartidos de taxi o hacer un regalo a un amigo. La cantidad mínima que se puede enviar es de 50 céntimos y la máxima, de 500 euros.

La intención es ofrecer a través de Bizum también la función de pago para comercio electrónico, e incluso que esta aplicación sirva para pagar con el smartphone en las tiendas físicas. En España esros servicios ya la ofrecen varios bancos a través de sus aplicaciones móviles o bien a través de Apple Pay (Santander) y de Samsung Pay (CaixaBank, Sabadell y Abanca).


ANTECEDENTES

Las multinacionales emisiores del dinero electrònico son: America Express, MasterCard y Visa.


AMERICAN EXPRESS

 American Express Co, el mayor emisor mundial de tarjetas de crédito,

El gasto de los dueños de tarjetas de AmEx en Estados Unidos creció en un 7% en el trimestre 2015, impulsando los ingresos del negocio en un 6 %, a 4,500 millones de dólares.

AmEx que emite la mayor parte de sus propias tarjetas a diferencia de Visa Inc y Mastercard Inc, se beneficia del gasto consistente de sus clientes -en su mayoría de altos ingresos- y de bajas tasas de incumplimiento de pagos.




MASTERCARD

 MasterCard opera la segunda red de pagos más grande del mundo. MasterCard aplica cargos a las compañías que utilizan su red de pagos por las transacciones con tarjetas que llevan sus marcas.

La compañía usualmente entrega mejores incentivos a sus socios en comparación con su rival Visa Inc. Los incentivos a clientes representaron cerca de 28% de los ingresos brutos de MasterCard en el segundo trimestre, muy por encima del 16% de Visa.

Los volúmenes de operaciones internacionales de MasterCard -es decir el valor de las transacciones hechas con tenedores de tarjetas fuera del país de origen del emisor- subieron 17%.






VISA




World Wide Web Consortium(W3C)

Un grupo de casi cien profesionales pertenecientes a empresas como Google y Yandex trabajan para unificar los estándares de los pagos electrónicos y móviles. Detrás de ellos se encuentra el World Wide Web Consortium(W3C), la misma organización que fundó Tim Berners-Lee, uno de los creadores de Internet, y que vigila los criterios globales de la red.
Los esfuerzos actuales de la W3C se concentran en elegir una interfaz que mejore y estandarice el abanico actual, aunque en la hoja de ruta quedan tareas pendientes, como la seguridad o los monederos electrónicos. Así lo ha explicado Evgeny Vinogradov, trabajador del gigante ruso online Yandex (algo así como el Google del Este) en declaraciones a The Next Web. “Cada compañía que utiliza los pagos electrónicos hoy inventó su propia forma de interactuar con el cliente. Ahora trabajamos en arreglar el desastre con el que se encuentra el usuario final, y en redactar una guía del aspecto que una interfaz de pago debería tener”.

Los involucrados en este proceso buscan  elegir el mejor modelo de entre todos los existentes, ha agregado Vinogradov. “Queremos estudiar todas las soluciones existentes en cada una de las fases del proceso de pago y elegir la mejor, la que satisfaga a todos los miembros de este proyecto”, ha detallado.

Elaborar un glosario en el que se escojan cuáles serán los términos universales para cada concepto del proceso de los pagos electrónicos es otra de las tareas que los mantienen ocupados.

Un estándar en ningún caso impedirá que las distintas empresas implicadas en los pagos online ofrezcan distintos servicios, pero sí ayudará a que los usuarios obtengan una mejor experiencia. Reducir al máximo la tasa de abandono de los consumidores en el proceso de compra es una prioridad para los negocios online, y un estándar potente de pagos electrónicos puede ayudar a conseguirla.

El de los pagos electrónicos y móviles parece uno de los sectores que resultarán decisivos en la evolución inmediata y futura de la tecnología y la economía, con un peso especialmente significativo en aquellos países con escasa bancarización pero tasas de acceso a Internet en pleno crecimiento. Empresas como Apple y Facebook han confirmado su interés en el sector con distintas actualizaciones y productos



FRAUDES CON TARJETAS DE CREDITO

Segun el reporte de Aite Group  "Consumidores globales: perdiendo la confianza en la batalla contra el fraude”, de 2014. señala los paises con mayor incidencia de fraude:

Emiratos Árabes Unidos con 39%
Estados Unidos, con 36 %.
India, con 32 %
China con 31%
México con 28%

domingo, 29 de enero de 2017

Machine Learning en Inteligencia Artificial


MACHINE LEARNING, el aprendizaje automático en IA

Una de las claves de la IA (Inteligencia Artificial) avanzada está en el aprendizaje. Es decir les pidamos a las máquinas que aprendan por sí solas. No queremos pre-programar reglas para lidiar con las infinitas combinaciones de datos de entrada y situaciones que aparecen en el mundo real.

Necesitamos que las máquinas sean capaces de auto-programarse, que aprendan de su propia experiencia. La disciplina del Aprendizaje Automático (Machine Learning) se ocupa de este reto y los gigantes de Internet han entrado de lleno en el mundo del aprendizaje automático, ofreciendo servicios en la nube para construir aplicaciones que aprenden a partir de los datos que ingieren. Para experimentar con estos servicios tenemos plataformas como IBM Watson Developer Cloud, Amazon Machine Learning, Azure Machine Learning, TensorFlow o BigML.


El aprendizaje por refuerzo engloba un grupo de técnicas de aprendizaje automático. En estos sistemas, las conductas que se premian tienden a aumentar su probabilidad de ocurrencia, mientras que las conductas que se castigan tienden a desaparecer.

Este tipo de enfoques se denominan aprendizaje supervisado, pues requiere de la intervención de los humanos para indicar qué está bien y qué está mal (para proporcionar el refuerzo). Aparte del refuerzo, también proporcionan parte de la semántica necesaria para que los algoritmos aprendan. Una vez que los algoritmos cuentan con un conjunto de entrenamiento proporcionado por los humanos, entonces son capaces  de trabajar en forma automática sin intervención humana.

Actualmente son estas limitaciones de entrenamiento de los algoritmos las que limitan su potencia, pues se requieren buenos conjuntos de datos de entrenamiento ( etiquetados de forma manual por humanos) para que los algoritmos aprendan de forma efectiva. En el ámbito de la visión artificial, para que los algoritmos aprendan a detectar objetos en las imágenes de forma automática han de entrenarse previamente con un buen conjunto de imágenes etiquetadas, como por ejemplo Microsoft COCO.

El futuro del aprendizaje automático será el aprendizaje no supervisado, donde los algoritmos son capaces de aprender sin intervención humana previa, sacando ellos mismos las conclusiones acerca de la semántica embebida en los datos, como Loop AI Labs, cuya plataforma cognitiva es capaz de procesar millones de documentos no estructurados y construir de forma autónoma representaciones estructuradas.



El aprendizaje automático está en desarrollo en el mundo del Big Data y el IoT y hay avances y mejoras de los algoritmos más tradicionales, desde los conjuntos de clasificadores (ensemble learning) hasta el Deep Learning, por sus capacidad de acercarse cada vez más a la perceptiva humana.

En el enfoque Deep Learning se usan estructuras lógicas que se asemejan  a la organización del sistema nervioso de los mamíferos, teniendo capas de unidades de proceso (neuronas artificiales) que se especializan en detectar determinadas características existentes en los objetos percibidos.. Existen varios entornos y bibliotecas de código de Deep Learning que se ejecutan en las potentes GPUs modernas tipo CUDA, ejemplo NVIDIA cuDNN.

Los modelos computacionales de Deep Learning imitan las características arquitecturales del sistema nervioso, permitiendo que dentro del sistema global haya redes de unidades de proceso que se especialicen en la detección de determinadas características ocultas en los datos. Este enfoque ha permitido mejores resultados en tareas de percepción computacional.

Hasta ahora la computación cognitiva se basa en la integración de procesos psicológicos típicamente humanos como el aprendizaje o el lenguaje. En los próximos años veremos como los sistemas cognitivos artificiales se expanden en múltiples aplicaciones en el ecosistema digital.

ROBOTS INDUSTRIALES

De acuerdo a la Federación Internacional de Robótica (IFR), el millón de robots industriales  en funcionamiento han sido fuente creación de 3 millones de nuevos puestos de trabajo y que en los próximos 5 años la robótica será responsable de creación de 1 millón de empleos de alta calidad en industrias como la de alimentos, los productos electrónicos, y la energía solar y eólica..










LOS RIESGOS DEL TRANSHUMANISMO

Los que hemos relacionados con las TIC y las tecnologías emergentes debemos conocer sobre la  ideología transhumanista  que pretende dar una cobertura filosófica, moral e, incluso, espiritual a la dimensión tecnológica del proyecto neoliberal postmoderno en este siglo XXI.

Según esta corriente tecno-optimista, tenemos la responsabilidad de conducir el proceso evolutivo de la humanidad y mejorar al ser humano, mediante la interacción e implementación en nuestro cuerpo y mente de tecnologías emergentes más allá de los condicionamientos y límites que nos impone la naturaleza.

La Singularidad, según el ingeniero de Google,  Ray Kurzweil,  será un acontecimiento que sucederá dentro de unos años con el aumento espectacular del progreso tecnológico, y debido al desarrollo de la inteligencia artificial y a la convergencia de las tecnologías NBIC (Nanotecnología, Biotecnología, Tecnologías de laInformación y de la Comunicación y Neuro-Cognitivas). Esa situación ocasionaría cambios sociales, culturales, políticos y económicos inimaginables, imposibles de comprender o predecir por cualquier humano anterior al citado acontecimiento. En esta fase de la evolución el transhumanismo predice que se producirá la fusión entre tecnología e inteligencia humana, dando lugar a una era en que se impondrá la inteligencia no biológica de los posthumanos. 

Ray Kurzweil propuso 6 épocas: 
Época 1. Física y química. La información está en las estructuras atómicas
Época 2. Biología. la información está en el ADN.
Época 3. Cerebro. La información está en las redes neurales.
Época 4. Tecnología. La información está en el Hardware y Software
Época 5. Integración de la tecnología y la inteligencia humana.
Época 6. El universo despierta.


El transhumanismo quiere difundir una ideología y una cultura favorables al “mejoramiento humano” (human enhancement) a través de la adopción de unas mejoras artificiales en el ser humano (genéticas, orgánicas, tecnológicas) con el objetivo declarado de hacerlo más inteligente, más longevo, más perfecto, más feliz, incluso para que pueda llegar a alcanzar la inmortalidad cibernética y la conquista del universo. 

La aspiración de perfeccionarse es intrínseca a la naturaleza humana, que ha aunado los mecanismos selectivos propios de la evolución con la transmisión del saber científico-técnico  y cultural. Los transhumanistas,  auguran un “humano mejorado” (o “transhumano”) primero y de un “posthumano” superior después. Como afirmaba Günther Anders, uno de los padres de la tecnoética, el ser humano actual padece de “envidia prometeica”: se descubre inferior a las máquinas que él mismo ha fabricado y aspira a transformarse radicalmente usando la tecnología a su alcance.

Se quiere difundir una ideología favorable al “mejoramiento humano” para hacerlo más inteligente, más longevo, más perfecto, más feliz, pero esta cosmovisión puede comportar riesgos

Podría definirse el mejoramiento humano como el intento de perfeccionamiento, transitorio o permanente, de las condiciones orgánicas y/o funcionales actuales del ser humano mediante la tecnología. No se trata ya de la loable curación de personas enfermas, sino de potenciar de tal modo a las personas sanas, mediante el impresionante arsenal tecnológico en desarrollo, de modo que se genere un abismo entre humanos mejorados y no mejorados. 

Tecnologías de uso dual como los chips subcutáneos que nos permiten abrir puertas sin usar llaves pero que también nos geolocalizan, prótesis externas e internas que nos doten de superpoderes, técnicas genéticas como el CRISPR que sirven tanto para acabar con peligrosos parásitos como para modificar nuestro ADN de forma eficiente y permanente, métodos farmacoquímicos o electromagnéticos de aumentar artificialmente –y sin esfuerzo- nuestras funciones cerebrales como la memoria, la agudeza sensorial o la capacidad de cálculo, o intervenciones con células troncales que regeneren nuestros tejidos viejos o dañados, son algunos de los ejemplos de aumento de nuestras capacidades que nos convertirían en transhumanos.

Para adelantar el advenimiento de la Singularidad, el transhumanismo nos propone tres elementos fundamentales: la Superinteligencia, la Superlongevidad y el Superbienestar.

La Superinteligencia
Esta corriente de pensamiento insiste en que la explosión predictiva de la capacidad de computación alumbrará una inteligencia artificial que, tal vez, llegue a adquirir incluso una consciencia simulada en silicio. Si al final los humanos nos integrásemos –voluntariamente- en las tecnologías convergentes podríamos, según ellos, llegar a estar en contacto directo con esa inteligencia artificial. El resultado sería que nos fusionaríamos efectivamente con ella y sus habilidades se convertirían en las nuestras. Eso impulsaría a la especie humana, en opinión del filósofo transhumanista Nick Bostrom, a un periodo de Superinteligencia

Superlongevidad
Aubrey de Grey, experto en investigación sobre el envejecimiento, sostiene que  tenemos que empezar a pensar en prevenir la enorme cantidad de muertes debidas al envejecimiento. Algunos transhumanistas van más allá y financian procesos criónicos, o incluso proyectos de una inmortalidad cibernética.

Superbienestar
Según el filósofo transhumanista David Pearce  el Superbienestar tiene como objetivo, en primer lugar, investigar y eliminar el sufrimiento, y en segundo lugar, alcanzar la abundancia y la felicidad para todos.


Las propuestas del transhumanismo nos interpelan y no podemos ni debemos huir de nuestra responsabilidad, como seres humanos, de dar una respuesta coherente de acuerdo a nuestra naturaleza, libertad y dignidad. Urge evitar que el mejoramiento sea solo para ricos o para una elite perteneciente a una noocracia no democrática que domine el mundo, o que se haga sin tener en cuenta los riesgos asociados a las nuevas tecnologías y a nuestra propia ignorancia del ser humano y de la naturaleza. Debemos evitar que las personas seamos transformadas en un sensor o en un producto tecnológico del capitalismo neoliberal –le llamen transhumano o posthumano- que sirva únicamente a intereses privados y a las fuerzas desbocadas del mercado y/o de la guerra. Estos retos no dejan de ser los que han existido a lo largo de toda nuestra historia, pero asumen ahora una dimensión tal que, por primera vez, se plantea una intervención directa en el proceso evolutivo que puede llevar a nuestra desaparición como especie.

No es la ciencia y la técnica, sino la cultura, la educación, las humanidades, lo que hace al ser humano tan diferente del resto de seres vivos, indica el biólogo Edward Wilson en su reciente libro The Meaning of Human Existence (2015). Un ser humano que posee la extraordinaria tarea de cuidar, de forma responsable, el planeta Tierra, y no de contribuir a su destrucción prematura, de proteger al más débil y vulnerable y no de menospreciarlo o eliminarlo, de orientar el innegable progreso científico-técnico hacia el bien de todos y no solo de algunos privilegiados. 

Debemos evitar que las personas seamos transformadas en un sensor o en un producto tecnológico que sirva únicamente a intereses privados de mercado y/o de la guerra

La sociedad debe tomar conciencia de las mismas sobre las aspiraciones del transhumanismo y abrir un amplio debate interdisciplinar y ejercer, desde un pensamiento crítico, una auténtica democracia real favorable al interés colectivo y al bien común. 

OTROS CRITICOS

Jaron Lanier tacha este horizonte de totalitarismo cibernético y maoísmo digital en su libro "You are not a gadget" (Usted no es un artefacto).
Steven Pinker dice: "No existe la más mínima razón para creer que vaya a llegar una singularidad. El hecho de que puedas visualizar el futuro en tu imaginación no es una evidencia de que sea probable o incluso posible.

Otras referencias:

sábado, 28 de enero de 2017

MOVIL RURAL: Soluciones de Cobertura

Una alternativa para conectividad en zonas rurales se ha empezado a ofrecer en Perú, se trata de la marca India, Omoco, que brinda productos diseñados especialmente para esos segmentos a los que no llegan los operadores tradicionales por un tema de costos e inaccesibilidad geográfica.

Ofrece un equipo que permita crear una red de Internet y telefonía móvil para 500 usuarios que entra en una mochila y pesa 5 kilos.

Sandeep Kohli, director de desarrollo de negocios para América Latina de Omoco powered by VNL, informó que su oferta llegará para empezar a utilizarse pronto en por lo menos 13 regiones (Cusco, Cajamarca, Ucayali, Ancash, Apurímac, Huánuco, Provincias de Lima, San Martín, Amazonas, Ayacucho, Puno, Piura y Loreto). Dicha labor la harán en conjunto con Mayu Telecomunicaciones.

El equipo está diseñado para integradores que deseen ofrecer el servicio de telefonía  2G y mensajería en un radio de 5 km sin necesidad de que haya llegado la red de fibra o señal satelital al pueblo en el que se instalará. Ya ha sido desplegado en zonas rurales de México, Colombia, algunas partes de Asia y la India.  

Kohli asegura que las ventajas que ofrece es que son fáciles de instalar y manipular, tienen un bajo costo (menos de US$10 mil por equipo) que la convierte en rentable para pequeños empresarios de las comunidades y logra un impacto positivo en el nivel de vida de las personas que habitan en zonas alejadas de las ciudades.

Esta oferta entraría como una alternativa más para reducir la brecha digital en el país. Será una opción frente a las otras formas que existen para conexión en zonas de difícil acceso geográfico para las redes de fibra, tales como las que ofrecen los grandes fabricantes Google (globos) o Facebook (drones).

OMOCO en MEXICO

 Omoco llegó a México en el 2016 con la intención de desplegar 1000 nuevos sitios de cobertura móvil de la mano de socios mexicanos.

Omoco es una compañía india fabricante de small-cells, enfocadas en la reducción de costos operativos (Opex) y de capital (Capex) en el despliegue de nuevas redes móviles. Sus cajas permiten conectividad 2G, LTE, y WiFi, van desde 6,000 hasta los 9,000 dólares. Por ello, su objetivo es proveer de conectividad áreas incomunicadas que van desde zonas rurales sin ningún tipo cobertura, hasta edificios como hoteles, centros comerciales, hospitales y escuelas en zonas urbanas que requieren mejorar la señal celular existente.

Omoco ya trabaja con tres socios en México que esperan desplegar 5 redes en zonas cercanas a la ciudad. México tiene la penetración móvil más baja de América Latina con 85 % de la población. Asimismo, cifras de INEGI estiman que 6 % de la población se encuentra fuera de las zonas de cobertura móvil. El uso de Internet también se mantiene rezagado entre las familias. Según cifras del programa México Conectado, en promedio 29 % de los hogares en localidades urbanas tienen acceso a Internet, porcentaje que se reduce a sólo 6 % en localidades rurales.

Además de permitir el incremento en la cobertura móvil, Omoco busca también ofrecer una oportunidad de negocio para cualquier persona que desee instalar una nueva red móvil en su propia comunidad, con lo que se podrían convertir en operadores móviles locales, establecer tarifas y vender equipos celulares.

Omoco señala que tiene presencia en 17 países con 3,000 redes desplegadas. Omoco indicó  “creamos un transmisor de señal celular que cabe en una mochila y consume tan poca energía que puede ser alimentada con una celda solar”. La solución de Omoco para pequeñas comunidades pesa unos 5 kilogramos y puede servir hasta a 300 suscriptores.

Omoco se concentró en hacer que la solución sea lo más sencilla de instalar, "acompañamos nuestro equipo con un instructivo que permite que una persona sin conocimientos de ingeniería pueda hacer uso de nuestra solución”. En el mundo hemos vendido nuestra solución no sólo a empresas: líderes comunitarios, grupos de vecinos; organizaciones no gubernamentales y muchos otros han adquirido nuestras soluciones para comunicar a sus comunidades señaló Omoco.

Pero las comunicaciones comunitarias no son el único mercado al que apuntan sus soluciones; también pueden desplegarse en industrias como plataformas petroleras, minas e instalaciones ubicadas en zonas alejadas de las zonas de cobertura celular. “El problema con las redes celulares tradicionales es que es muy difícil moverlas en caso del cierre de una mina o el movimiento de una instalación de extracción petrolera”, por lo que desean aprovechar la flexibilidad de sus soluciones, que pueden ser instaladas y desplegadas a petición del usuario con posibilidad de proporcionar sistemas de comunicación por datos y control de sistemas SCADA (Supervisory Control and Data Acquisition) para aplicaciones industriales.

Aunque otros fabricantes como Ericsson y Huawei han impulsado la oferta de small-cells para cobertura exterior e internet, Omoco indica que su producto está diseñado y probado para mejorar la cobertura en zonas de difícil acceso. “Los grandes proveedores no se acercarán a las poblaciones pequeñas, porque lo habrían hecho ya. Básicamente no tenemos competidores”.

Entre otros beneficios de las small-cells se encuentra que puede crear redes locales en oficinas, por ejemplo, para permitir llamadas gratis entre los usuarios conectados. Además, en caso de emergencia o desastre natural, se pueden montar un par de cajas en un helicóptero para monitorear una zona, obtener los números celulares, y ofrecer un aproximado de la gente que haya sido afectada o esté desaparecida en esa zona en particular.


ANTECEDENTES

Uno de los principales retos en latinoamerica es incrementar la cobertura de redes móviles para permitir, principalmente a la población rural y de escasos recursos, el acceso a nuevos servicios de comunicación.

El servicio móvil es zonas rurales es básicamente 3G


El cual se complementa con servicios Satelitales básicamente para TV de paga



PERU - TELEFONICA EN BANDA Ka

La Banda Ka, se expandirá de 5 regiones del norte del Perú  a 14 regiones en el 2017, informó Oswaldo Pelaes León, gerente de Planificación de Acceso de Telefónica del Perú.
La banda Ka comprende entre los 26,5 GHz y 40 GHz. Cuando se implemente a nivel nacional. permitirá brindar internet de alta velocidad, redes privadas virtuales o como red de transporte, con velocidades de “18 Mbps de bajada hasta 3 Mbps de subida”, afirmó Pelaes.



A la fecha, la Banda Ka se ha implementado en localidades rurales de las regiones Piura, Lambayeque, Amazonas, Cajamarca y Tumbes; y en el 2017 se tiene proyectado implementarla en 14  regiones adicionales.

En el orden de costos, es mayor el gasto por tender las redes de la fibra óptica, seguido por las microondas y la banda satelital. Esta última reduce en un tercio el costo de la primera.

La diferencia entre la fibra óptica y la banda satelital es que la segunda tiene retrasos de alrededor de 250 milisegundos, mientras la transferencia de la primera es inmediata.

La Banda C (para la señal de televisión con antenas). Esta necesitaba antenas de 2.4 a 5 metros de diámetro. La evolución es la banda KU, con un menor diámetro de 1.2 a 1.8 metros.

SKYNET EN COLOMBIA Y PERU

Skynet, subsidiaria de la Empresa de Telecomunicaciones de Bogotá (ETB), prepara su ingreso a Perú, donde brindará conectividad satelital de alta velocidad, además de otros servicios TICs.

“SkyNet se ha posicionado como el primer operador de Internet satelital de la amazonía, ofreciendo banda ancha en la frontera de Colombia, Perú y Brasil”, dijo el gerente de operaciones  René Otero.


ETB adquirió el 75 % del operador en 2014 por 10 millones de dólares. En su Colombia natal, Skynet brinda conectividad satelital en la región amazónica y ganó una licitación para implementar 640 kioscos Vive Digital.


3G EN AMAZONIA PERUANA

 El uso de tecnologías clásicas, macroceldas y backhaul satelital no asegura el retorno de inversión en poblaciones por debajo de 1.000 habitantes con dispersión de la población, dificultades de acceso y falta de suministro eléctrico, por ello  desincentiva a los operadores de telefonía celular a servir a zonas aisladas de la selva.

El proyecto europeo TUCAN3G, en el que participan centros de investigación, operadoras y fabricantes de equipos, dirigidos técnicamente por la Universidad Rey Juan Carlos (URJC), busca acercar la tecnología 3G a lugares remotos de países en desarrollo.

Para proporcionar un modelo de negocio sostenible, plantea el uso de antenas  femtoceldas y unbackhaul (la red que conecta a los usuarios con la central del operador) alternativo basado en tecnología WiLD (WiFi modificada para larga distancia).

El proyecto ha logrado la integración y optimización de ambas tecnologías con un bajo coste de despliegue y un bajo consumo eléctrico alimentados con energía solar. La instalación piloto en la selva peruana ha permitido verificar esta solución técnica y a la vez económicamente sostenible para la introducción progresiva de los servicios de voz y datos de banda ancha en estas comunidades aisladas de menos de 250 habitantes.

El consorcio TUCAN3G ha tenido que solucionar problemas regulatorios, técnicos (control de interferencias, reducción de consumo, optimización de enlaces WiFi de decenas de kilómetros, control de la calidad de servicio) y de homologación de equipos para finalmente poder instalar la tecnología en 6 pueblos en las orillas de los ríos Napo y Paranapura, en Loreto, Perú.

Al cierre del proyecto los investigadores estarán verificando las hipótesis económicas de partida, para comparar ingresos y gastos reales, y así plantear el escalado de la iniciativa.

Los resultados que se están obteniendo se recogen en un artículo que el consorcio ha publicado en la revista científica IEEE Communications Magazine, .

El sistema está funcionando desde febrero de 2016 y ha alcanzado ya un promedio de 120 llamadas diarias por ubicación. Se espera que se alcancen pronto las 200 llamadas diarias, que harán que el servicio sea sostenible. El sistema ha servido ya para coordinar traslados urgentes de pacientes, para hacer que abuelos de la etnia chayahuita conozcan a sus nietos migrantes usando videoconferencia y para que productores de plátano negocien antes de viajar por el río el precio de su producto.

Este trabajo ha sido financiado por el VII Programa Marco de la Comisión Europea (TUCAN-3G / IST-601102 STP) y por el Fondo de Inversión de Telecomunicaciones de Perú (FITEL).

ESTUDIO de PwC

El informe "Conectando al mundo: diez mecanismos de inclusión global" realizado por PwC para Facebook destaca el actual panorama de conectividad a Internet en el mundo, donde el crecimiento en conectividad se ha desacelerado pese a existir todavía 56% de la población sin Internet.

El informe señala que la asequibilidad es una de las principales barreras para incrementar la conectividad. Se requieren medidas en los 3 mercados que componen Internet: proveer de mejor conectividad, contenido relevante y mejores propuestas de valor.

Sobre la base de un análisis econométrico de 120 países, el estudio afirma que lograr la penetración universal a Internet podría ampliar la producción mundial en 6.7 billones de dólares.

Para la medición de asequibilidad, el estudio considera un monto de consumo de 500 MB por persona,  Sobre esta base, estima que pese a que 96 % de la población global vive bajo la cobertura de las redes de telecomunicaciones, 67 % de la población no puede acceder a Internet a causa de que un plan de 500 MB cuesta más de 5 % de su ingreso disponible mensual.

Para América Latina, existe disponibilidad de red para 98% de la población, así como contenido relevante para 92 %, pero que Internet es asequible sólo para 36 %.

Para alcanzar una mayor asequibilidad debe reducirse los precios en aquéllos países con baja conectividad y altos niveles de pobreza. Para obtener 80 % de su población en línea, por ejemplo, Etiopía, Nigeria y Filipinas deberían provocar un recorte en el precio del acceso a Internet por más de 90 %. Los precios en México deberían reducirse 60 % y en Brasil 68 %.

La instalación o  mejora de la tecnología  en las naciones en desarrollo, será suficiente para llevar a cabo gran parte de esta reducción de costes. Por ejemplo, la gran mayoría de telefonía móvil es utilizado para Internet 2G, si se actualizara a 3G o 4G, el costo de los datos móviles se desplomaría. Sin embargo, requiere inversión por adelantado, no sólo por los operadores, sino también por los usuarios, quienes deben comprar dispositivos móviles relativamente más caros.

Hay tensión entre la necesidad de invertir en activos de red y la necesidad de reducir los precios.  El reto de equilibrar la inversión contra la rentabilidad es particularmente grave en los países en desarrollo. Los operadores en la mayoría de estos mercados ya cobran precios muy bajos y tienen un margen negativo en los datos, lo que hace que sea difícil para ellos cortar aún más los precios.

El objetivo de Internet.org, proyecto fundado y financiado por Facebook, es buscar alianzas con los operadores de telecomunicaciones para ofrecer acceso asequible, pero restringido al acceso de algunas páginas parte del programa como el propio Facebook o Wikipedia. El programa ha sido criticado por ser contrario a las reglas de la “neutralidad de la red”.

 Mientras que la “tasa cero” proporciona acceso a una versión más reducida de Internet que la web completa, se considera como una oportunidad para exponer la oferta de valor de Internet a personas que no lo conocen o que es su primer experiencia.

Contenidos: el reporte de PwC indica que en países en desarrollo existe una enorme brecha de acceso a contenido relevante o atractivo para los usuarios. el mercado para el contenido es complejo y fragmentado. Se compone de numerosos submercados, incluidos entretenimiento, información, servicios públicos, servicios empresariales, plataformas de intercambio y comunicación.

Mientras los usuarios en países desarrollados observan 267 videos per cápita, se reduce a 33 en países en desarrollo. En el segmento de información, en países desarrollados existen 12 periódicos por cada millón de habitantes, se reduce a 1.9 en países en desarrollo.

Los creadores de contenido tendrán que  dar a los potenciales usuarios razones para pagar por el contenido. Estas necesidades son en su mayoría sobre educación, servicios públicos y aumento de los ingresos.  Es necesario que los operadores y vendedores de servicios en Internet cambien su enfoque de ventas de estar centrado en el producto por sí mismo, a un enfoque centrado en el usuario, a través del cual éste último aprenda los beneficios de estar en línea.

“Las investigaciones muestran que estos consumidores más pobres no adoptan fácilmente nuevos productos. Por el contrario, buscan la ayuda de una fuente de confianza antes de que intenten nuevos bienes o servicios”, indica el estudio.

Los diez mecanismos propuestos para incrementar la conectividad en el mundo son:
1.       Redistribuir el espectro fuera de 2G: el Internet se vuelve más asequible.
2.       Mejorar la distribución de contenidos sin conexión:  descargar contenido en la caché local.
3.       Más infraestructura Nac.e Intert. de Internet: los precios de acceso a Internet son más baratos.
4.       Contenidos educativos relevantes: proporciona una razón de peso para conectarse.
5.       Servicios sociales en línea: participar con su gobierno y ser menos vulnerables a la corrupción.
6.       Contenido de oportunidades económicas: la gente se conecta porque pueden ganar más
7.       Modelos de venta:  educación a consumidores antes de adquirir bienes o servicios nuevos.
8.       Acceso subvencionado por marcas o suscripciones: da a los más pobres el acceso barato.
9.       Propuestas más simples de valor: reduce el riesgo financiero para los nuevos usuarios.
10.   Tecnologías disruptivas: las innovaciones tecnológicas a las zonas más pobres y remotas.

WATLY

Watly es un proyecto nacido en Barcelona, el empresario italiano Marco Attisani junto con personas de diversas partes del mundo, han trabajado desde 2013 en lo que ellos llaman "el primer ordenador termodinámico que funciona con energía solar en el mundo", que sería capaz de proporcionar agua potable, electricidad e internet.

Watly ha logrado reunir más de 22 millones de dólares en inversión desde 2013, se han hecho acreedores a diversos premios de donde se destaca Horizon 2020 patrocinado por la Comisión Europea,

La versión 2.0 ha estado operando desde 2015 en la pequeña villa de Abenta, en Ghana, donde proporciona agua potable, electricidad y conexión 3G a cerca de 750 personas. Ya está en etapa de planificación la versión 3.0 de Watly, que aumentaría su tamaño y capacidades, con el objetivo de llegar a comunidades que superen los 3000 habitantes.

La versión 3.0 (40m de largo, 15m de ancho y peso 15 toneladas) Utilizaría 40 paneles fotovoltaicos en la parte superior de la estructura capaces de generar hasta 70 kWh por día, la cual estaría disponible por medio de enchufes y cargadores de baterías portátiles.

Esta energía también serviría para purificar aguas residuales o agua de mar por medio de un proceso de destilación por compresión de vapor, proceso que elimina patógenos, residuos de sal, metales pesados y compuestos inorgánicos. Este sistema sería capaz de purificar hasta 5.000 litros de agua por día y su vida útil se estima será de 15 años, además de que su mantenimiento sería mínimo.

Además contaría con un sistema para conectarse vía satelital o a través de antenas 3G o 4G, esto para proporcionar una conexión a internet con un radio de 500 metros, la cual serviría tanto para saber el estatus del dispositivo de forma remota, así como para mantener informada y conectada a la comunidad.



Gilat e Intelsat se unen para mayor cobertura

Aunque en las grandes ciudades tenemos cada vez más y mejor cobertura, en las zonas rurales, en las regiones parcialmente despobladas o en las aisladas geográficamente, las redes móviles tienen poca cobertura o son de muy baja calidad. Sin embargo, hay nuevas soluciones tecnológicas para atender a un gran número de usuarios potenciales.

 Gilat Satellite Networks, formó una alianza con Intelsat para llevar las redes móviles 2G y 3G por satélite a las zonas más lejanas del Planeta utilizando una serie de estaciones base a modo de small cells que son las encargadas de conectarse con la red de satélites de Intelsat en órbita y de crear la red móvil en tierra para dar cobertura a áreas extensas.



La primera implementación de su sistema la están llevando a cabo para la operadora RuralCom en Vancouver, dando cobertura a más de 1.000 millas en la zona de la Columbia Británica y la autopista de Alaska.


Virgin y Qualcomm tamnién formaron una alianza  enfocada a dar servicios de voz y datos desde su red de satélites, la cobertura de la Banda Ancha móvil está llamada a llegar hasta los rincones más perdidos de la Tierra.

Google, con sus diversos proyectos como Loon y la reciente inversión en SpaceX,  también auestan por la combinación de satelite con redes móviles


GILAT

Cotización en Nasdaq



Cotización en Tel-Aviv Stock Exchange ( TASE)



GRUPO MER

Fundado en 1948 (Israel), el MER Group mantiene un portafolio diversificado con más de 12 subsidiarias enfocadas en tres sectores principales – telecomunicaciones, seguridad y CleanTech – a la vez que invierte en otras áreas incluyendo comunicaciones por satélite, biotecnología y ciencias de materiales. Con cotización pública ( Tel-Aviv Stock Exchange TASE: CMER) desde 1992, el MER Group tiene 40 oficinas en todo el mundo que dan empleo a más de 1.200 personas.  www.mer-group.com


viernes, 27 de enero de 2017

SDN-NFV: Ericcson dará soporte a OpenECOMP

Ericsson anunció que dará soporte a los proveedores de servicio que desplieguen OpenECOMP, la iniciativa de AT&T y la Fundación Linux para proveer un software de automatización y administración de código abierto.

“Ericsson comparte la visión de AT&T de un sistema modular de administración y orquestación con analíticas y basado en control de políticas”, afirmó Ericcson, además, indicó que su interés es acelerar la alineación de la industria en temas de virtualización de funciones de red (NFV), redes definidas por software (SDN), administración y orquestación.

“Proyectos como OpenStack, Linux, OpenDaylight y OPNFV han establecido la tecnología para un ecosistema sano. (…) Ericsson soportará diferentes proyectos de orquestación y administración de código abierto, como OpenECOMP, que establezcan un método claro para articular y comunicar las necesidades operacionales de los proveedores de servicio para las redes de próxima generación”, afirma el comunicado.
Además, la sueca se compromete a colaborar y contribuir con las comunidades de código abierto.



Canales Youtube de SDN y NFV
. Telefónica ID
Networks Open Source
Blog Juniper Networks Brasil
. Comarch Telecoms


ANTECEDENTES

AT&T liberó plataforma ECOMP de código abierto

AT&T planea para el 2020, tener el 75 % de su red bajo esquemas de virtualización con NFV o de redes basadas en software con SDN, por ello cumplió su promesa de ofrecer su plataforma Enhanced Control, Orchestration, Management and Policy (ECOMP) en formato de código abierto.
Ahora que el mercado tiene el código a su disposición, AT&T espera que se acelere su desarrollo e innovación y que permita a todos los operadores,  el poder migrar sus redes a esquemas más flexibles y ágiles que les permitan gestionar sus redes de forma eficiente. AT&T asegura que tal y como está, ECOMP es maduro y completo, y además está demostrado en un ambiente comercial, y por ello creen que puede convertirse en un estándar para la industria.

ECOMP mantiene la estructura de virtualización ETSI, con algunos componentes que lo mejoran.



Para su transición al mundo de código abierto, AT&T está trabajando con el Linux Foundation, donde también se amparan los desarrollos del controlador de SDN OpendayLight o la iniciativa OPNFV.

Antes de AT&T, Telefónica había lanzado OpenMANO, una plataforma de gestión y orquestación de red virtualizada.

En mayo 2016, la iniciativa de ETSI Open Source MANO (OSM) anunció la disponibilidad del código release 0, que compila los borradores de Telefónica, RIFT.io y Canonical, entre otros,


Las iniciativas de código abierto también han involucrado a empresas proveedoras como Juniper Networks y su Open Contrail, Metaswicth y su proyecto Calico o Ciena con Blue Planet (heredado de su adquisición de Cyan).




LINUX presentó orquestador abierto OPEN-O

La Fundación Linux anunció la intención de conformar el proyecto Open-Orchestrator (OPEN-O), un esfuerzo colaborativo para desarrollar el primer marco de referencia y orquestador de software abierto, con vistas a posibilitar despliegues ágiles de redes definidas por software (SDN) y virtualización de funciones de red (NFV).

Aunque las tecnologías como SDN, NFV y Cloud permiten operaciones de telecomunicaciones autónomas en tiempo real, muchos sistemas de soporte de operaciones (OSS) convencionales se basan en software propietario, lo que conduce a problemas de interoperabilidad para los operadores.

OPEN-O integrará tecnologías de redes abiertas y permitirá a los carriers implementar SDN y NFV de una forma sencilla y económica a través del desarrollo de código fuente abierto. Asimismo, tiene como meta acelerar la integración de múltiples proveedores, la innovación de servicios y mejorar la agilidad en todas las operaciones de la red.


La iniciativa fue presentada en una conferencia de la Fundación Linux, China Mobile y Huawei durante el Mobile World Congress-2016 y cuenta con el apoyo de las firmas Brocade, China Telecom, dynaTrace, Ericsson, F5 Networks, GigaSpaces, Infoblox, Intel, KT, Redhat, Raisecom, Riverbed y ZTE.



AT& T:   FUNCIONES de RED BAJO DEMANDA.

AT&T  lanzó  AT&T Red bajo demanda, por la cual las empresas pueden desplegar a través de hardware común una serie de funciones de red y ofrecerlas en diferentes países. La solución está disponible en 76 países incluyendo Brasil, Chile Colombia, Costa Rica, Curaçao, Republica Dominicana, Ecuador, El Salvador, Guatemala, México, Panamá, Perú, Puerto Rico, Uruguay y Venezuela.

Antes de esta solución implementar un router o un firewall requería un trabajo de podía durar semanas o meses. Mediante esta solución de funciones de red basadas en software su implementación es más inmediata ya que se utiliza un hardware común, reduciendo costos y complejidad.

Las primeras funciones de red que se pueden solicitar bajo demanda incluyen: los routers virtuales de Juniper Networks y Cisco, la seguridad de Fortinet y la optimización del WAN de Riverbed. Según AT&T ya son 1.200 empresas de todo el mundo las que han accedido a este servicio.

VERIZON:  FUNCIONES DE RED

Verizon llama a su solución Virtual Network Services y lo lanza a través de su división Verizon Enterprise Solutions, porque la solución va dirigida a las empresas que quieran migrar a un modelo virtualizado para obtener mayor agilidad en el despliegue de servicios en su red, menores costos y poder utilizar los servicios bajo demanda y pagar por ellos sólo cuando se utilicen.

Los servicios ya están disponibles y los iniciales ofrecidos de forma virtualizada son: seguridad, optimización WAN y WAN basada en software (SD WAN).
Los servicios se ofrecerán en tres modalidades: con equipos CPEs en las oficinas de las empresas, CPEs virtuales en la nube ( en 2T-2016) y servicios híbridos combinando los dos anteriores.
Verizon se está apoyando en Cisco, Juniper Networks, Fortinet, Palo Alto Networks, Riverbed y Viptela para ofrecer sus nuevos servicios virtualizados.



MERCADO - PROYECCIONES

Según la consultora Technology Business Research (TBR), el mercado de SDN y NFV para el sector de telecomunicaciones crecerá a una tasa compuesta anual del 116 % entre 2015 y 2021

TBR señala que el 2016 el crecimiento estará apalancado por los operadores Tier I como AT&T, que ya han avanzado en proyectos de SDN y NFV. De hecho, los operadores de Estados Unidos y Europa serán los que acapararán cerca del 75% del desembolso en NFV y SDN anual, en promedio.





VERIZON:  NFV con OpenStack

Verizon completó su mayor despliegue de virtualización de funciones de red (NFV) con OpenStack en 5 de sus centros de datos en los Estados Unidos.
El proyecto inició en 2015 y el objetivo era cumplir con 5  necesidades básicas: resiliencia en escala, flexibilidad en el diseño de la red lógica, reducción de complejidad operacional, visibilidad y seguridad integrada y evitar los cuellos de botella en ancho de banda.

Para el proyecto de diseño de la arquitectura basada en pod, Verizon trabajó con Big Switch Networks, Dell y Red Hat. En 9 meses, la iniciativa pasó de ser un concepto a ser un despliegue en más de 50 racks ubicados en 5 centros de datos.
El proyecto utiliza la plataforma de Red Hat OpenStack y las soluciones Red Hat Ceph StorageBig Switch Big Cloud Fabric para software de control SDN y switches Dell.


NEC y Netcracker con  nueva plataforma NFV

NEC y Netcracker lanzaron su Agile Virtualization Platform and Practice (AVP), una serie de herramientas, plataformas y servicios diseñadas para acelerar la adopción de  Software-Defined Networking (SDN) and Network Functions Virtualization (NFV).
Netcracker pertenece a NEC y, con esta solución los operadores podrán convertirse en proveedores de servicio digitales y acceder a nuevas oportunidades de negocio. Esta nueva solución incluye los siguientes componentes: Virtualization Development and Operations Center (VDOC), Business Enablement Applications (BEA), Hybrid Operations Management (HOM) y Primary Systems Integration Practice (PSIP).


DATA CENTER DEFINIDO POR SOFTWARE

C&W Business, la división de Cable & Wireless Communications (CWC) enfocada al segmento corporativo, anunció el lanzamiento de una solución de datacenter definido por software (SDDC) que permite a los clientes en Latinoamérica y el Caribe utilizar  IT como servicio (ITaaS) desde los centros de datos que opera.
CWC apalancó esta tecnología con el diseño de Centros de Datos Virtuales (VDC), un pool flexible de recursos virtuales de RAM, CPU y almacenamiento que sus clientes pueden emplear en la creación y recreación de su producción, recuperación de desastres, pruebas, garantía de calidad y entornos de desarrollo, entre otros usos.
La plataforma SDDC de C&W Business ofrece flexibilidad y escalabilidad en un ambiente virtual, simplificando la configuración y el control de sus múltiples entornos. Los clientes pueden ejecutar sus operaciones diarias con la certeza de que sus aplicaciones y datos relevantes están respaldados en entornos separados.
Esta solución se ejecuta en 7 centros de datos conectados a la infraestructura de red redundante de C&W, que consta de un tendido de 48.000 kilómetros que abarca 42 países. Asimismo, CWC ofrece asistencia las 24 horas del día a través de sus centros de operación de Redes y Seguridad (NOC y SOC, respectivamente).





SDN-NFV: Blue Orbit tiene nuevos socios

Ciena anunció que 6 organizaciones se unieron a Blue Orbit, el ecosistema de socios centrado en la entrega de plataformas de aplicaciones para despliegues de redes definidas por software (SDN) y virtualización de funciones de red (NFV).


Los nuevos socios son:
Active Broadband Networks —software para la provisión y gestión de servicios en el borde de la red
Calix —equipos de acceso—
Centina Systems —soluciones de rendimiento—
 Dell —SDN con plataformas de computo virtualizadas x86—,
 Qwilt —soluciones de open caching NFV para video OTT—
 Silver Peak —servicios WAN empresariales—.

Blue Orbit es  participada por varias compañías en los campos de :
NFV (funciones virtualizadas de red): —BlackRidge Technology, Brocade, Certes, EXFO, Fortinet, Genband, Metaswitch Networks, PowerDNS, Spirent Communications y Versa Networks—,
Elementos físicos de la red:  —Accedian, Omnitron Systems, RAD y Telco Systems—
Infraestructura virtual:  —ADI Engineering, Aria Networks, Arista, Boundary, Canonical, Intel, Mellanox, Pica8, Red Hat, Ryu, VMware y Wind River—.

Kevin Sheehan, vicepresidente de operaciones de Clientes Globales de la división Blue Planet de Ciena, aseguró que “a medida que la industria se encamina hacia redes abiertas definidas por software de múltiples proveedores, es esencial asegurarse que las nuevas funciones virtuales pueden ejecutarse en redes en vivo y sin interrupciones”.



SDN-Redes definidos por Software: Huawei y Telefónica completan pruebas en Perú

Huawei y Telefónica del Perú anunciaron haber completado pruebas de campo de redes definidas por software (SDN) basadas en IP y soluciones de sinergias ópticas (Optical Synergy). El testeo se realizó en Lima, utilizando redes con topología mesh.

La experiencia probó casos relacionados a la provisión automática de redes, provisión de servicio multicapa, restauración de red multicapa, diversidad de caminos y anulación de riesgos compartidos en grupos de enlaces.

La red contenía OSN8800 como ROADM, OSN9800 como un interruptor OTN packer-aware, NE40E como enrutadores de servicio y NE500E como routers de núcleo para formar un completo conmutador óptico protocolo/multiprotocolo red de transporte óptica reconfigurable y multiplexor Drop añadido (IP/MPLS/OTN/ROADM) en red multicapa. El controlador y la orquestación estuvieron basadas en la solución de Huawei, Smart Network Controller (SNC) y NetMatrix.

Telefónica y Huawei continuarán con las pruebas y la promoción de SDN basado en IP y soluciones de Optical Synergy para su estandarización y posterior despliegue comercial.
Telefónica mantiene acuerdos con Huawei, al igual que con otros proveedores, para realizar pruebas de esta tecnología.

CONOCIENDO MAS DE SDN

El objetivo de la gestión de red es asegurar que la red completa funciona como se desea, siendo lo ideal poder configurar servicios extremo a extremo, sin tener que entrar en detalles de configuración de nodos individuales. La programabilidad de la red completa y la capacidad de modificar su comportamiento de forma automática en tiempo real, simplifica notablemente la complejidad y costes de la gestión de las redes y; ese es, precisamente, uno de los principales objetivos de SDN.

 Con SDN, la red actual puede evolucionar a una red inteligente mucho más abierta, flexible, escalable y reprogramable. La red se transforma en una herramienta de negocio más eficiente y permite a través de API, que las aplicaciones soliciten y modifiquen dinámicamente los servicios proporcionados por la infraestructura de red, sin necesidad de intervención humana, pudiendo la red informar de su nuevo estado a las aplicaciones.
En efecto, SDN permite maximizar la fiabilidad, rendimiento, escalabilidad y calidad, que requiere cada tipo de servicio o usuario actual o futuro, optimizando a la vez el CAPEX y OPEX y generando nuevas oportunidades de negocio

SDN es más complejo que NFV, ya que con NFV se puede mantener la topología de red tradicional, mientras que SDN traerá grandes cambios en ellaSDN requiere de mayor madurez  para los despliegues comerciales en redes de telecomunicaciones. A pesar de que todos los suministradores ya tienen demostraciones, todos reconocen que para que estas tecnologías estén
listas para despliegues reales es necesario resolver dos temas importantes: soporte de redes multivendedor y estándares globales. Está claro que la colaboración entre operadoras y fabricantes es clave para el éxito.

La ONF (Open Network Foundation) es un consocio que está liderando la evolución de SDN y estandarizando los elementos críticos de esta arquitectura, tal y como el protocolo OpenFlow. El consorcio fue fundado en 2011 por Deutsche Telekom, Facebook, Google, Microsoft, Verizon y Yahoo!; contando en la actualidad con más de 140 compañías miembro. Otros organismos de estandarización (ATIS, Broadband Forum, ETSI, ITU-T, OIF, TM Forum, etc.) y, en especial el IETF, a través del grupo el grupo I2RS (Interface to the Routing System), también están trabajando en extender sus especificaciones para soportar los principios de SDN.



En la arquitectura SDN, los planos de control y de reenvío de datos son desacoplados: el estado e inteligencia de la red son centralizados lógicamente y la infraestructura de red subyacente se abstrae de las aplicaciones. Los planos de control y de datos pueden ser así diseñados, dimensionados y optimizados de forma independiente.





El complejo plano de control se mueve así desde los nodos de red a una capa software, que puede ser centralizada en un centro de datos, pudiendo controlar y gestionar los nodos de la red, que estarán preferentemente virtualizados, mediante un conjunto de API (Application Programming Interfaces) hacia abajo (southbound) estándar, tal y como OpenFlow. Esta evolución en la arquitectura de red no es realmente nueva, ya ocurrió en la red telefónica fija y móvil, separándose las funciones del plano de datos (incluyendo SGW, PGW y M-MGW) y el plano de control (incluyendo MME y MSC-S).



El controlador SDN elimina la inteligencia de conmutación y encaminamiento de datos de los nodos que realizan dicha función, siendo esta nueva entidad software la que toma esas decisiones y selecciona el mejor camino para el tráfico. La arquitectura permite que un controlador SDN gestione un amplio rango de recursos del plano de datos, lo cual ofrece el potencial de unificar y simplificar su configuración. El controlador ofrece una serie de API hacia arriba (northbound), que permite a los servicios y aplicaciones simplificar y automatizar las tareas de configuración, provisión y gestionar nuevos servicios en la red, ofreciendo a los operadores nuevas vías de ingresos, diferenciación e innovación.

Las tecnologías utilizadas tradicionalmente para la gestión de red son: SNMP, scripts en CLI, REST, XML, CORBA, etc. Una de las formas más populares de implementar SDN es el protocolo OpenFlow, que es soportado por la ONF. OpenFlow es un protocolo de bajo nivel para implementar un control de los nodos de red, que requiere de nuevos desarrollos en estos elementos para ser compatibles con el controlador SDN.

OpenFlow es un estándar abierto que busca la interoperabilidad entre distintos fabricantes. El código abierto es considerado por muchos operadores como la alternativa más rápida para conseguir soluciones interoperables o multivendedor, respecto a la estandarización de las API, que requerirá de más tiempo. En la comunidad de código abierto nos encontramos con iniciativas como: OpenStack, Floodlight, OpenDaylight, etc. Sin embargo, la aproximación a SDN más extendida actualmente entre los grandes fabricantes de conmutadores y encaminadores es utilizar API basadas en las plataformas propietarias de cada vendedor, lo cual dificulta el cambio de proveedor.

Para que la arquitectura de SDN sea exitosa, debe poder ser desplegada en redes multivendedor, asegurando la seguridad e interoperabilidad y la coexistencia con los actuales BSS/OSS (Business & Operation Support System). En los despliegues en redes extremo a extremo podría haber distintos controladores SDN por tecnología (transporte óptico, IP, etc.) o por vendedor, dando lugar a distintos dominios. El orquestador de servicio es la entidad que enlazará estos dominios y que enlazará con los OSS/BSS tradicionales, trasladando los requerimientos de las aplicaciones en solicitudes de conexión de red, permitiendo así optimizar la provisión de servicios y las conexiones a través de las redes. Para asegurar la interoperabilidad entre los distintos dominios, los vendedores de equipamiento deben desarrollar API abiertas a sus controladores SDN, algo que actualmente está en estado aún muy incipiente, dada la complejidad en acordar un API estándar.

BENEFICIOS DEL SDN

1. Reducción de CAPEX
SDN permite centralizar el plano de control en un centro de datos virtualizado, utilizando más eficientemente la
infraestructura subyacente. La maximización de la utilización de recursos de red, supone el despliegue de
menos equipos, lo cual además de menos inversiones, simplifica la operación de la red.

2. Reducción de OPEX
La centralización de la inteligencia de red en SDN, facilita la toma de decisiones debido a la visión global
de la red, frente a las redes tradicionales, donde cada nodo no conoce el estado global de la red a nivel de
ocupación, fallos, etc. SDN permite automatizar las actualestareas,realizadasmanualmente,deconfiguración,
provisión y gestión. Esto reduce el tiempo de provisión y configuración, reduce la complejidad, y se reducen
dramáticamente los erroresmanuales. La automatización de la red, incrementa además la fiabilidad y seguridad
de la red.

3. Reducir el tiempo y los riesgos del despliegue de nuevos servicios
El despliegue de un nuevo servicio ha sido tradicionalmente un proceso lento y tedioso,con largos ciclos de certificación y pruebas pilotos, para depurar los errores y problemas. También suponía la instalación de hardware y software específico. SDN permitirá simplificar este proceso, que incluso podrá llegar a ser automatizado.La automatización y abstracción de funciones, acelera la introducción de nuevos servicios y reduce sus riesgos asociados.

4. Nuevas oportunidades de negocio e ingresos
La programabilidad de la red mediante API abiertas, a través de las que las aplicaciones pueden interactuar con la red, ofrece a los operadores nuevas vías de ingresos, diferenciación e innovación. SDN ofrece una mejor especia del usuario final,puesto que las aplicaciones explotan la información de estado de la red centralizada para adaptarse progresivamente a los cambios de comportamiento que necesita el usuario. El control de la red más granular, con la habilidad de aplicar un amplio abanico de políticas a nivel de sesión, usuario, dispositivo y aplicación; permite ofrecer nuevos modelos de negocio.

En definitiva, SDN cambiará la forma en que las redes son operadas, integrando las tecnologías IP y de transporte, reduciendo
la complejidad operativa y costes mediante la reducción de la complejidad al usuario, y haciendo un uso más eficiente de los recursos de red existentes. La ONF ha realizado un informe técnico que muestra cómo los operadores están combinando NFV y SDN para conseguir los objetivos comunes de ambas tecnologías para mejorar la “agilidad” de la red. Explica los retos que los operadores tienen que superar para implementar NFV y presenta casos de uso que demuestran cómo SDN habilitada por OpenFlow puede satisfacer las necesidades de una red más flexible, programable y abierta para soportar NFV. El informe demuestra cómo SDN puede acelerar los despliegues de NFV de forma escalable y elástica


CIENA:

Ciena una de las empresas líderes comenta el estado de SDN en el sector de los operadores de telecomunicaciones


Operadores como AT&T o NTT se han mostrado muy interesados en tener una red más programable y dinámica. Hay despliegues pequeños con lo que podríamos llamar “infraestructura programable”. SDN  permitirá a los operadores volver a tomar control sobre su red y les permite  tener un mapa claro de su red para ofrecer servicios en la nube.

Proveedores redes de distribución de contenidos (CDNs) y empresas como Google han pasado por el proceso de SDN y Operadores de telecomunicaciones Tier 1, están iniciando sus pruebas. 

A los operadores se les exige conectividad en todos lados, redes de alta capacidad y además ofrecer una elevada calidad de experiencia en sus servicios y en los de terceros. Coordinar estos tres factores es muy difícil. Las tecnologías y soluciones que pueden ayudar a conseguir estos tres objetivos, son las redes que consiguen escalar con dos tecnologías fundamentales:La tecnología fotónica (fibra óptica) para tener capacidad en la magnitud de los terabytes. Y la otra tecnología que debe estar disponible es la inalámbrica en el extremo, contar con una alta densidad de antenas para tener muchos puntos de acceso para que toda la capacidad que ofrece el sistema fotónico pueda llevarse a los usuarios, y esto se hace a través de las torres celulares con 2G, 3G y 4G así como con Wi-Fi. Por lo que es la combinación de un extremo “rico”, que se obtienen con tecnología inalámbrica principalmente pero también alámbricas, junto con la capacidad de la tecnología fotónica. Y una vez se tienen ambas, lo ideal es que sean lo más programables y dinámicas que sea posible.

Nueva estructura y capital humano

Una de las principales barreras de las organizaciones es cambiar el comportamiento cuando se pasa de una infraestructura estática donde los servicios pueden necesitar meses para ser entregados versus una dinámica donde estos tiempos se reducen a horas o minutos. Siempre que hay un cambio en una organización se presenta una oportunidad. Los operadores que están compitiendo estan haciendo  más o menos todos lo mismo  con su capital humano. Pero una vez que la red empieza a automatizarse se redirecciona al capital humano de gestionar y operar la red a crear diferenciación sobre esa misma red. De esta forma, aquellos que estaban pendientes de la operación de la red, en el futuro estarán preocupados en programarla para que sea mejor y ofrezca mejores servicios que las redes de sus competidores.

Con SDN pasaremos de una red de datos a una programable. Por eso el operador que sepa adaptar  su estructura y personal de la forma más adecuada, tendrá una ventaja competitiva con respecto al resto.