lunes, 13 de marzo de 2017

LA CIBERGUERRA

La mayoría de las agresiones electrónicas a empresas con sistemas de ciberseguridad son prácticamente inocuas y repelidas sin problemas por escudos defensivos. Sin embargo, hay decenas que esconden un software significativamente peligroso (malware), diseñado para dañar o infiltrarse en el sistema.

La instalación de Israel Electric la empresa energética más importante de Israel, responsable del 70% del suministro eléctrico del país, es lo que cualquier Estado consideraría una infraestructura crítica. Su interrupción o destrucción derivaría en una situación de emergencia nacional.

Los cuatro escenarios de la guerra de la segunda mitad del siglo XX ( tierra, mar, aire o en el espacio) no existen en la ciberguerra. Sus trincheras están en internet. Bautizado como el quinto dominio por la revista The Economist, el campo de batalla de la ciberguerra es un mundo artificial, creado por medios informáticos. Lo que parecía ficción se ha convertido en realidad: Trump, China, Israel, Irán, Europa... 2017 es el año en el que esta lucha digital de consecuencias impredecibles empieza a dejarse notar en el mundo analógico.

La denominación de guerra mundial a la ciberguerra no es exagerada si atendemos a su definición enciclopédica: «Una contienda a gran escala que involucra a varias naciones de distintos continentes». Eso sí, la I Ciberguerra Mundial,  cuenta con unas características inéditas. Esta lucha es camuflada, carece de banderas, no ofrece imágenes ni sonidos y en ella impera la ley de silencio: la única información que sale a la luz proviene de empresas de ciberseguridad o de filtraciones como las protagonizadas por Snowden,Manning oWikiLeaks. El anuncio de la organización activista comandada porJulian Assange esta semana ha supuesto el último terremoto. A lo largo de los próximos días WikiLeaks difundirá documentación relacionada con los programas que utiliza la CIA para espiar desde cualquier dispositivo conectado a la Red. Se esperan sorpresas.

Según fuentes del Centro Criptológico Nacional, organismo adscrito al CNI de ESPAÑA, el 3% de los ataques informáticos del 2016 contra sistemas públicos y empresas de interés estratégico fueron de gravedad muy alta o crítica (máxima peligrosidad). Se estima que tres de cada cuatro son patrocinados por otros países. China y Rusia son los más beligerantes con España. Su principal objetivo: el robo de información.

La ciberguerra global presenta una cronología confusa. No hay un detonante claro ni dos bandos identificados como en el mundo físico. Los precedentes históricos han dejado de servir de referencia. «De cierta forma, esto acaba con la noción de estado tradicional», explica un alto mando de Ciberdefensa de las Fuerzas Armadas de Israel. «De repente, las fronteras son irrelevantes, el Derecho Internacional no impera o tiene muchas interpretaciones... Sólo rige la ley de la jungla».

En el ciberespacio es mucho más difícil defender que atacar. Por eso, gobiernos y empresas han iniciado una carrera armamentística de programadores y herramientas informáticas. «Cuando repeles un ataque sabes que tu enemigo volverá mañana. Tú tienes que ganarle todos los días, mientras que a él le basta un mal día tuyo para vencer», explica el español Jose Selvi, investigador de Seguridad Senior de Kaspersky, multinacional rusa especializada en ciberseguridad. El problema es que cada vez hay más posiciones que defender: este 2017 se alcanzarán los 8.400 millones de dispositivos conectados a internet, cifra que supera el número de habitantes del planeta. Demasiadas puertas para aquellos que quieren entrar sin llamar.

Kaspersky es un gigante del sector y ejerce de forense en numerosos casos de guerra electrónica. Uno de ellos fue el Stuxnet: para muchos especialistas, la primera superarma virtual destinada a causar daño físico. Se trata de un gusano (programa diseñado para copiarse y propagarse por sí mismo) que en 2010 se introdujo en el programa nuclear iraní para sabotearlo.

Las autopsias informáticas tienen algo del Cluedo, el popular juego de mesa. Hay que averiguar quién es el asesino, qué arma usó y dónde se perpetró el crimen. Ya saben, la señorita Amapola disparó la pistola en el comedor. En internet siempre se deja un rastro que hay que saber seguir. La atribución de un ataque es siempre compleja, incluso localizar la IP del ordenador que lo originó no siempre es suficiente. Mucha de esa culpa la tiene el frecuente empleo de hackers mercenarios (patrocinados por Estados, pero que actúan sin bandera), una táctica que difumina al enemigo real y limita sus riesgos. A menudo basta con echar un vistazo a un mapa y ver la lista de rivales comerciales o militares para averiguar quién es tu señorita Amapola.

Y (desafortunadamente) todos los países tienen su señorita Amapola.

Stuxnet es descrito por la compañía Kaspersky con una prosa tenebrosa, digna de un cuento gótico: «Es un prototipo funcional y aterrador de un arma cibernética que conducirá a la creación de una nueva carrera armamentística mundial». Su sofisticación dejó claro que su diseño escondía un poder tecnológico al alcance de muy pocos. El New York Timesatribuyó su autoría a Israel con la colaboración de EEUU. Cuando preguntamos sobre el Stuxnet a un representante de la Oficina del Primer Ministro de Israel, su respuesta fue evasiva: «No sé qué es eso».

La negación es otra arma defensiva en la jungla digital, donde no se llevan las declaraciones de guerra a la vieja usanza.

No es una cuestión de modales. Las sociedades, especialmente en Europa, están muy lejos de la efervescencia patriótica que marcaron muchas guerras del pasado y un anuncio así provocaría pánico entre la gente, además de una fuerte contestación. Aunque sobre todo hay un motivo estratégico: «Si otro país destruye tus infraestructuras críticas y provoca muertes con un ciberataque, podría darse una respuesta militar convencional. Por eso nunca nadie lo reconoce», confirma un general de una superpotencia militar.

El contraataque de toda la vida, a sangre y fuego, está justificado en un documento de la OTAN conocido como el Manual de Tallin, que recoge una serie de reglas dedicadas a la ciberguerra. Una de las más polémicas es la que legitima matar a hackers enemigos, aunque estos sean civiles, si han provocado daños graves.

Esto demuestra la importancia estratégica del ciberguerrero en los conflictos del siglo XXI. En muchas circunstancias es mucho más útil que una división acorazada... y más barato. Cuando Estados Unidos lanzó en la II Guerra Mundial dos bombas atómicas sobre Japón, no sólo cumplió con su objetivo militar de forzar la rendición sino que disuadió a cualquier rival de discutirle su liderazgo. Tuvo el monopolio nuclear hasta que los soviéticos fabricaron su bomba en 1949.

En el ciberespacio esto no funciona así. Un programa como Stuxnet es como una abeja: una vez clavado su aguijón, muere. Estas armas inician su fin tecnológico cuando son ejecutadas en misiones, porque pueden ser descubiertas y analizadas por el resto de contendientes de la ciberguerra. Cuando esto sucede, se produce un salto en innovación y pronto los demás son capaces de desarrollar más formas de malware. Así se alimenta la carrera (ciber)armamentística.

Todo está conectado. Rodeados de amenazas, con criminales que quieren robar nuestro dinero y enemigos que anhelan nuestros secretos, resulta complicado analizar el sosiego de nuestro día a día virtual. Es muy sencillo: en la ciberguerra no hay muertos, aunque la población civil empieza a sufrir muchas penalidades. Y las amenazas no dejan de crecer.

ATAQUES MÁS REPRESENTATIVOS DE LA CIBERGUERRA

¿Qué pasaría si se manipularan los semáforos de una ciudad o la torre de control de un aeropuerto? Por desgracia, los acontecimientos recientes desvelan los agujeros de seguridad de muchos sistemas electrónicos que afectan a la ciudadanía. A la denominada guerra económica -muy relacionada con el ciberespionaje industrial y culpable de pérdidas de puestos de trabajo e inversiones- se han unido también agresiones físicas como las registradas en Ucrania.

Dos días antes de la Navidad de 2015, un malware bautizado como BlackEnergy se infiltró en una central eléctrica de este país de Europa Oriental. Estaba programado para borrar archivos y sabotear el sistema de esta infraestructura crítica. Más de 600.000 personas se quedaron sin calefacción en invierno durante unas horas. Kiev acusó a Rusia de estar detrás del ataque. La ciberguerra ha dejado de ser un asunto exclusivo de espías, militares y empresarios: tres profesiones que conoce muy bien Rami Efrati.

Efrati es un tipo bienhumorado, de edad avanzada y con un inglés con fuerte acento polaco. Durante 28 años sirvió en el ejército en labores de Inteligencia y actualmente dirige su propia empresa de ciberseguridad. Es un ejemplo de la fiebre del oro de una industria multimillonaria que está fichando a los jóvenes más dotados para la física y las matemáticas.

Efrati no ha visto la película sobre Edward Snowden, el ex analista de la NSA que filtró al mundo el espionaje masivo realizado por Estados Unidos. Pero no parece que el film de Oliver Stone vaya a hacerle cambiar de opinión: «Cualquier persona que haya trabajado en una agencia de Inteligencia te dirá que Snowden es un traidor», sentencia.

Tiene que haber pocos cartógrafos del cibermundo mejores que Efrati. Conoce hasta las fosas abisales de la Red, ese mercado negro de coordenadas inaccesibles para el ciudadano corriente donde todo está a la venta: la darknet (literalmente, red oscura). Él la describe de la siguiente manera: «Un lugar donde se pueden comprar tanto las armas informáticas más sofisticadas como reclutar a programadores de gran nivel. De esa forma la ciberguerra se iguala y los Estados más avanzados no son los únicos actores. Con dinero los grupos terroristas y las mafias criminales se arman como el que más».

 Cualquiera que haya visitado una feria sectorial (sea de turismo, automóviles) sabrá que consiste en pasear por unos pasillos repletos de stands. Se ven azafatas, corbatas, folletos y bolígrafos corporativos. El encuentro de CyberTech de Tel Aviv es idéntico, el mismo ambiente, pero allí se reúne lo más granado del negocio de la seguridad. Incluso el Mosad tiene un quiosco con una urna para echar solicitudes de ingreso.

Según previsiones de la agencia de análisis Gartner, la ciberseguridad moverá en todo el mundo unos 150.000 millones de euros en 2020. Es el nuevo El Dorado tecnológico. Razón por la que los emprendedores que triunfan con sus startup son las nuevas estrellas.

Hasta hace cinco meses, Estados, ciberdelincuentes y terroristas recorrían el ciberespacio con relativa discreción. Todo cambió en octubre 2016, cuando un ejército de hackers de origen desconocido desconectó de internet durante 11 horas a gran parte de la costa Este de Estados Unidos afectando a mil millones de usuarios de todo el planeta. Eso es lo que se conoce como un ataque por denegación de servicio (DDoS): en este caso el proveedor de internet atacado en manada se asfixió por saturación de tráfico.

Su colapso derivó en interrupciones en webs tan populares como las de Twitter, Amazon, Netflix y The New York Times. Era la primera vez que un ataque masivo se cocía dentro del denominado internet de las cosas (todos los objetos cotidianos que están conectados a la Red). En este caso, los hackers lanzaron su ataque a través de cámaras de seguridad, decodificadores de televisión y routers domésticos. La originalidad del asalto plantea, según Enrique Ávila, director del Centro Nacional de Excelencia en Ciberseguridad, un problema que tarde o temprano la comunidad internacional tendrá que abordar: los agujeros de seguridad de la cadena de distribución de todo lo que compramos.

«El mundo tecnológico tiene sus fábricas en China porque los costes son muy bajos», dice Ávila. «En ciudades como Shenzhen [con 6.000 fabricantes de la industria] se hacen la mayoría de los dispositivos electrónicos. Estas condiciones impiden que se trate con el rigor necesario la seguridad de unos componentes dotados de un software que es susceptible de ser pirateado. No sabemos ni siquiera si los dispositivos que utilizaron habían sido hackeados antes de su comercialización».

Ataques como los de Ucrania y Estados Unidos demostraron que en la lucha del ciberespacio se había pasado a otro nivel. Las alertas en Occidente empezaron a brillar en rojo Valentino.

La injerencia rusa en una campaña presidencial de tal magnitud ha sido un hito crucial en la historia de la I Ciberguerra Mundial. Lo que no había logrado el Ejército Rojo en la Guerra Fría con ojivas nucleares y su presencia en Cuba lo ha conseguido Vladimir Putin a golpe de clic: influir en la elección del cargo más poderoso de la Tierra. El 9 de diciembre, el Washington Post publicó que la CIA acusaba a fuentes cercanas al Kremlin de filtrar a WikiLeaks los emails pirateados a la campaña de Hillary Clinton con el fin de perjudicarla en la carrera por la Casa Blanca. Sorprendentemente, se rompía la ley del silencio. Una superpotencia acusaba a otra de una intromisión política directa y gravísima.

El plan diseñado por los hackers, mercenarios (presuntamente) en nómina de la agencia militar rusa (GRU), se ejecutó gracias al llamados pear phishing: un ataque que busca obtener información confidencial mediante el engaño. Su acceso llegó cuando varios miembros de la campaña demócrata abrieron un email trampa y destaparon la caja de Pandora.

Mientras tanto, Europa aguarda incrédula. Su opinión pública se pregunta qué puede pasar después de lo acontecido en la mayor superpotencia mundial. Es víctima de un pulso psicológico 3.0 y nadie explica muy bien que está sucediendo. Los mensajes son preocupantes. El gobierno holandés anunciaba en febrero 2017 la retirada del voto electrónico en favor del recuento contado a mano por miedo a que hackers pudieran interferir en sus comicios. La inquietud va más allá del control de un proceso electoral. En plena era de la posverdad, tras el Brexit y la victoria de Trump, la manipulación de datos y la filtración selectiva de información hackeada en las redes sociales podrían ser armas muy efectivas en las elecciones que se van a celebrar en Francia, Alemania e Italia. El auge del populismo y la crisis del proyecto europeo debilitan unas defensas que ya no son sólo informáticas, sino sociales.

¡Es la guerra! diría (Groucho) Marx. Sí. Ahora solamente queda por saber quién la está ganando

VIDEO 8K, 4K: Mercado y tecnologías

El video digital sigue una tendencia de mayor resolución, por ahora ya existen en el mercado televisores hasta de 8K, que ha sido etiquetada como QUHD ( Quad Ultra HD), y cuenta con una resolución de 7,680 × 4,320 píxeles en 98 pulgadas de pantalla y proporciona 16 veces más píxeles que un modelo 1080p (Full HD). Una pantalla Full HD ofrece imágenes de 2 megapíxeles, un panel 4K brinda fotos o cuadros de video de 8 megapíxeles, mientras que el 8K llega a los 33 megapíxeles.

Los operadores de redes móviles se enfrentarán a un reto mayúsculo en los próximos meses, que es la demanda de video de ultra alta definición (UHD) conocido como 4K.  De acuerdo a un estudio de  GSMA, los operadores deberán mejorar sus redes para poder soportarlo.

El 46.8 % de los encuestados en el estudio, aseguró que es responsabilidad de los operadores encontrar las maneras de monetizar el uso de las redes para video de nueva generación.

El 23.3 % de los consultados dijo que son los propios operadores, y no quienes ofrecen los servicios de video, los que deben invertir en las redes para entregar mejor calidad de internet a los usuarios.

Sin embargo, existe un debate sobre si los operadores deberían cobrar a los proveedores de video por usar sus redes. El estudio señala que apenas un 16 % indicó que los proveedores de video deben pagar a los operadores por el uso de las redes para distribuir su contenido.

Los televisores 8K ya son vendidos por varios fabricantes como  Samsung, Sharp,

ANTECEDENTES


8 K EN JUEGOS OLIMPICOS 2016

Los Juegos Olímpicos 2016, en Río de Janeiro, serán los primeros en ofrecer transmisiones en resoluciones 8K y cobertura en realidad virtual.

Japón será el único país en poder disfrutar de hasta 130 horas de transmisión en 8K Super Hi-Vision, con resoluciones de 7680 x 4320 pixeles, así como audio en hasta 22.2 canales. La Olympic Broadcasting Services, espera transmitir eventos como la natación, la natación, el atletismo, basketball y el fútbol; así como la inauguración y el evento de cierre de los Juegos Olímpicos.

En Japón, solamente Sharp vende un modelo de televisor 8K. Sin embargo, el interés del país asiático en probar este formato tiene que ver con los Juegos Olímpicos del 2020 en Tokio.

A diferencia de las transmisiones en 8K, las de realidad virtual estarán disponibles en todo el mundo, por lo que los usuarios con visores compatibles podrán disfrutar de las grabaciones en hasta 360 grados.

YOTUBE YA PERMITE SUBIR VIDEOS DE 8K

YouTube ha habilitado la subida de vídeos en 8k después de haber estado experimentando con la función.

YouTube  ha ido aumentando resoluciones para adaptarse a las mayores pantallas, y también han habilitado los 60FPS para todos aquellos vídeos que se pueden aprovechar de esta función si tienes la conexión suficiente.



UIT emite norma HDR-TV

La Unión Internacional de Telecomunicaciones (UIT), emitió  una nueva norma para la televisión de elevada gama dinámica (HDR-TV - High Dynamic Range Television) que da una impresión de realismo y aprovecha aún más la fidelidad colorimétrica superior de la Recomendación BT.2020 sobre la televisión de ultra alta definición (UHDTV).

La recomendación denominada UIT-R BT.2100 sobre HDR-TV, ayudará a que los programas de TV aprovechen plenamente las nuevas tecnologías de pantallas mucho más brillantes y permite a los productores de contenidos dar más brillo y naturalidad a las escenas iluminadas con luz natural, añadiéndoles reflejos y contraste.

Además mejora las escenas poco iluminadas y nocturnas, aumenta los detalles en zonas más oscuras y ofrece a los productores de TV la posibilidad de revelar texturas y sutilezas cromáticas que se suelen perder con la TV de gama dinámica convencional.

Los productores de televisión también podrán elegir entre 3 niveles de detalle o resolución, como HDTV (1920 por 1080), UHDTV o 4K (3840 por 2160) y el 8K (75680 por 4320), que son lo que utilizan la recomendación previa de la UIT-R-BT, sobre UHDTV.

Las imágenes HDR son espectaculares y constituyen otra mejora importante de la calidad de televisión", declaró Andy Quested, Presidente del Grupo de Trabajo 6C (GT 6C) del UIT-R que ha desarrollado la nueva norma."Los programadores actuales necesitan muchas más opciones para cumplir las expectativas de las distintas plataformas que deben abastecer, y esta flexibilidad se obtiene en el marco de una Recomendación del UIT-R estable”, aseguró.



SONY: LANZÓ STREAMING DE PELICULAS 4K

El 3D no tuvo el éxito esperado en gran parte, por falta de contenido disponible. Por ello Sony con el 4K lanzó su servicio de streaming de películas en ultra alta definición desde el 4 de abril 2016, llamado "Ultra", sólo en los televisores de la marca.

Cada título costará unos 30 dólares (uso indefinido) aunque quienes compren los últimos televisores 4K de Sony tendrán acceso a 4 películas de modo gratuito.  Sony afirmó que más adelante podría ofrecer también alquileres.

Sony indicó que los usuarios podrán actualizar las películas de su colección a ultra alta definición abonando entre 12 y 15 dólares, aunque esta característica sólo está disponible (por el momento) a los contenidos producidos por Sony Pictures



VIDEO 6K: Netflix ha rodado en 6K la serie ‘House of Cards’

Cuando la resolución 4K aún está llegando a los televisores,  Netflix ya fija su mirada un paso más allá: ha rodado la tercera temporada de su serie ‘House of Cards’ en 6K, o lo que es lo mismo, en 6.144 x 3.160 píxeles en cada ‘frame’. La plataforma marca así de nuevo el futuro del ‘streaming’, apostando por la calidad de imagen.


Con la calidad 6K cada capítulo de una hora de duración, tal cual está rodado, ‘pesa’ aproximadamente 5,5 TB, por los 2,5 TB del 4K, según apunta The Hollywood Reporter.

Pero aunque la resolución del grabado en bruto es de los citados 6.144 x 3.160 píxeles, es difícil que los espectadores vean la serie en esa calidad: además de la capacidad de los actuales dispositivos, que no llegan a estas cotas, la misma plataforma ofrece, de momento, una resolución máxima de emisión de 4K.

Así, el rodaje en 6K puede resultar innecesario, pero supone reto de cara al futuro. La compañía no solamente quiere revolucionar la industria audiovisual en cuanto a producción de contenidos y a la forma de distribución, también busca marcar un hito en la resolución ofrecida al público.

El video móvil va ganando terreno




VIDEO 4K: Mercado y tecnología

El video 4K  es usado en el industria de la televisión digital y es llamado así debido a que su resolución horizontal es de aprox. 4000 pixeles (4096).  Hay 2 versiones, el 4K y el Full 4K

4K tiene una  resolución 3840x2160 (Quad HD o 4K UHDV - 2160p en aspecto 16:9 <> 8.3 megapixeles ), esta resolución dobla en ambas dimensiones vertical y horizontal a la TV Full HD 1080p.
4K UHDV (3840x2160)
1080p
(1920x1080)
1080p
(1920x1080)
1080p
(1920x1080)
1080p
(1920x1080)

Full 4K tiene una resolución 4096x2160 en aspecto 17:9 <> 8.8 megapixeles.


RESOLUCIONES
Las resoluciones de los videos ha ido en aumento: SD (720x576), HD (1366x768), FHD (1920x1080), 2K (2048x1080), UHD(3840x2160), 4K (4096x2160).



1080i Vs 1080p

Ambos  tienen la misma resolución 1920×1080 píxeles es decir corresponde a 1080 líneas horizontales de 1920 píxeles cada una. Esta información se despliega de forma diferente en 1080p y en 1080i.

1080i con i de ‘interlaced’ (entrelazado) hace referencia a cómo se despliega cada frame o imagen que compone un vídeo. Cada una de estas imágenes no aparece completa en un solo cambio. Primero se despliegan las líneas horizontales impares y en el siguiente cambio la imagen se completa con las líneas pares.

1080p  con p de progresivo, los frames aparecen progresivamente, uno detrás de otro. Las líneas pares e impares se despliegan a la vez. En un segundo se muestran 60 frames, que coinciden con el número de actualizaciones de la imagen, cada una tiene 1080 líneas de 1920 píxeles.

En cambio, en 1080i cada actualización supone 540 líneas de 1920 píxeles, pues se renovarán las impares o las pares, según corresponda, pero nunca todas a la vez. En este formato durante un segundo hay 60 actualizaciones, pero sólo se despliegan 30 frames o imágenes porque en cada actualización sólo aparece la mitad de un frame.




ECOSISTEMA 4K

Para que se desarrolle el video 4K deben promoverse el ecosistema que lo sustente, que es similar al ecosistema de UHD.



Proveedores OTT (Over-The-Top) que transmiten contenido exclusivamente mediante Internet,  estan dispuestos a adoptar canales 4K adcional a la transmisión de contenido en Full HD (1080p) o  Ultra HD-
Si bien 4K es el futuro de la televisión, aún falta un largo camino por recorrer. Mientras que las pantallas de TV a 1080p son la norma y las resoluciones de pantalla móviles siguen aumentando, todavía contenido HD se sigue distribuyendo en resolución 720p o menos.
Mientras proveedores como Hulu o Netflix estarían más dispuestos a ofrecer resolución Ultra HD o 4K, los distribuidores tradicionales, relacionados a la TV Everywhere, es más probable que se conformen con 720p, ya que consideran los teléfonos inteligentes y las tabletas como los objetivos primarios. DirecTV también proveerá  canales 4K el 2015

Los operadores de televisión de paga promoverían los servicios de películas 4K a través de conexiones IP directas a los televisores inteligentes, sin pasar por un set-top box. Esto les permitiría competir con los proveedores OTT antes de desplegar decodificadores con capacidad 4K entre 2015 y 2017.

MERCADO DE TELEVISORES 4K.

Los  TV UHD, mejor conocidos como 4K, mostraron un incremento de más de 500% anual  en el tercer trimestre de 2014, con envíos totales por 6.4 millones de unidades, informó DisplaySearch.

China es el principal mercado que consume TV 4K, con más de 60 % de los envíos mundiales al 3T-2014, en tanto queSamsung  cubrió el 36 % de los envíos de estos televisores. En la región de Asia Pacífico, China cuenta con la mayor proporción de los envíos de 4K con 13%.  Europa occidental tiene el 6%. de los envíos de televisores de ultra alta definición.

Las marcas chinas tienen una participación más fuerte de envíos gracias a un mayor volumen dentro de aquel país, y un precio promedio bajo en comparación con las marcas globales que compiten en los mercados internacionales. Pero con la llegada de una mayor competencia en América del Norte y otros mercados, así como el aumento de las exportaciones TV 4K chinas, la reducción de precio llegará.


Samsung y Sony están haciendo todo lo posible para sembrar el mercado con contenidos y servicios 4K con el fin de convencer a los consumidores.

Sony, con su división de cine ha publicado una gran cantidad de contenido remasterizada en un reproductor de películas por descarga. Samsung ofrece a los primeros consumidores un disco duro USB libre con dos vídeos completos y clips adicionales en 4K”.

La principales productores de TV 4K son; Sony, Sansumg,


PROS Y CONTRAS DE COMPRAR UN TV 4K

PROS
Mayor precisión en la imagen: se aprecian más detalles, lo que podría ser ruido en otras resoluciones adquiere sentido con el nuevo estándar. Los detalles que antes no importaban ahora pueden ser captados por el espectador y hay que cuidarlos.
Apreciar  las fotografías: las imágenes captadas con las cámaras digitales de hoy en día tienen una calidad que no corresponde con la que emiten los monitores de televisión Full HD. Con la resolución 4K se ven partes de la fotografía que parecían no existir.
Contenidos en Full HD se ven mejor: una pantalla 4K también mejora la calidad de imagen de los contenidos cuya resolución sólo es Full HD.
Inversión de futuro:  la tendencia se mueve hacia esta resolución. Las plataformas de Internet han iniciado el viraje, las cadenas de televisión irán poco a poco sumándose y pronto llegarán los blue-ray 4K, cuya aparición está prevista para 2015.
Mejora imagen en movimiento: soportan más imágenes por segundo y están más preparados para asimilar los movimientos rápidos, como los que tienen lugar en deportes o películas de acción. La tecnología 4K también pone a punto los contrastres y ofrece más colores

CONTRAS

Falta contenido:  Lo mismo pasó con el 3D y tantas otras tecnologías nada más nacer. El acceso a contenido en resolución 4K es reducido. Netflix habilitó la opción de streaming en 4K el mes de abril, si bien solo alguna temporada de ciertas series está disponible en esta resolución. YouTube también ha puesto en marcha un canal dedicado.
Costoso: han aparecido algunas voces que afirman la inutilidad de la resolución 4K, argumentando una razón biológica. La vista humana el limitada y nuestro ojo no está hecho para captar todos los detalles del 4K. Sin entrar a valorar este argumento, lo cierto es que a día de hoy el precio al que se vende esta tecnología es muy alto y tal vez los beneficios que aporta no compensen a muchos consumidores. 
Limitaciones de conexión por HDMI: el estándar HDMI 2.0 no escomercial y por ahora solo el 1.4 puede sorportar resoluciones de 4K, pero lo hace en el límite. Los dispositivos con estándares anteriores (1.3 o menos) no podrán conectarse a un televisor para transmitir imagen en 4K.
La nueva generación de consolas no es 4K: ni la PlayStation 4 ni la Xbox One ofrecen soporte para videojuegos en 4K. Es cierto que sí reproducen otro contenido en esta resolución, pero su experiencia principal no está adaptada.


SMARTPHONES CON 4K
El LG G3, tiene pantalla Quad HD con resolución de 2.560 x 1.440 píxeles, con una densidad de 538 píxeles por pulgada. La tendencia apunta a que en los próximos años se irá a más y el 4K sea la definición estándar
Sin embargo, el estándar de la Ultra Alta Resolución es actualmente 4K, que ofrece una resolución de pantalla de 3.840 x 2.160 píxeles, una norma que ha empezado a introducirse en los televisores de gama alta e, incluso, los servicios más populares de internet como YouTube y cámaras de acción como GoPro ya están empezando a permitir la grabación y reproducción de imágenes en 4K.


H.265 / HEVC, CODEX PARA 4K

Como sabemos el codex  H.264 / AVC, reemplazó al codex MPEG 2,pero el códec H.265 es un 35% más eficiente que H.264
Sin embargo la tasa de bits necesaria con H.264 para una emisión UHD y 4K se dispara. Con H.264 se necesitaría una tasa de bits de alrededor de 30 Mbps y siendo pesimista rondaríamos los 46 Mbps.
Es decir, se necesitaría probablemente un ancho de banda de alrededor 38 Mbps.
El ancho de banda disponible de un canal multiplexado de TDT ronda los 18 – 20 Mbps por lo que las emisiones no pueden superar ese tamaño.


H.265 / HEVC, es el sucesor del H.264/MPEG-4 AVC (Advanced Video Coding) que permite llegar a casi duplicar la tasa de compresión. Las mejoras en bitrate se estiman de mínimo un 35% manteniendo la misma calidad de imagen.
De esta manera, la misma emisión UHD con códec H.265 necesitaría sólo un ancho de banda de 18 – 20 Mbps lo que permitiría incluso llegar a la TDT tradicional. Sin embargo, hablamos de un nuevo códec, lo que implicaría la actualización o cambio de receptores como ya sucedió al llegar el TDT HD.

Se espera que numerosos eventos mundiales sean emitidos en el formato 4K.



El nuevo HDMI 2.0 para Video 4K

El HDMI 2.0 comienza a establecerse como el formato estándar de los televisores de ultra alta definición y reproductores multimedia.

En la IFA 2014 la feria de electrónica de consumo y tecnología más importante de Europa, la corporación HDMI Forum cumplió su promesa de presentar el HDMI 2.0 que será el nuevo estándar en la transmisión de señales de alta definición que comenzaría a expandirse en todo el mercado.

El HDMI ha tenido actualizaciones desde su nacimiento en el año 2002 para proveer a la industria multimedia de lo que necesita. Un ejemplo claro es que hoy en día los llamados televisores 4K de ultra alta definición no son aprovechados al máximo, dado que el cable HDMI que usamos para transmitir la señal de vídeo y audio desde el reproductor multimedia (como un BluRay) al TV no es el más óptimo para su tecnología.

El estándar anterior del HDMI 2.0 era el HDMI 1.4, y aunque está capacitado para transmitir vídeo en resolución 4K (es decir, 3840×2160 píxeles), no aprovecha la tasa de refresco máxima que en teoría permiten estas pantallas. En pocas palabras, los cables actuales limitan al televisor.

LA ERA  4K

Así inició la presión por parte de los fabricantes de televisores y en general de la industria para actualizar el estándar al HDMI 2.0 y este lo cumple a la perfección.

El HDMI 2.0 no está limitado a los 30 cuadros por segundos (fps), sino que puede transmitir vídeo en 4K y a 60 fps, el HDMI 2.0 cuenta con un ancho de banda de hasta 18 Gbps en comparación con los 10.3 Gbps máximos que ofrecía la versión anterior. Esto es lo que hace posible no solo la transmisión a 60 fps, sino también da soporte a los formatos panorámicos de pantallas con formato 21:9 y finalmente, aprovechar esos maravillosos 12 bits de color que ofrecen las pantallas más modernas de ultra alta definición.

La mejora del audio 
El HDMI 2.0 permite reproducir hasta 31 canales de audio con frecuencia de 1536 kHz, una gran mejora en comparación con los apenas 8 canales de audio que permite reproducir el formato actual.

Dolby, anunció que trabajaría en llevar su formato Dolby Atmos que reproduce audio de 64 canales, al estándar HDMI 2.0, sin perder calidad mínima

HDMI 2.0 es compatible con la mayoría de televisores, reproductores multimedia, consolas de videojuegos e incluso cables; la gran condición es que el fabricante de tu Smart TV y tu reproductor debe actualizar su software para implementar estas grandes ventajas, algo que muchos fabricantes prometieron hacer durante este año 2014.

Son muchas las ventajas claras del nuevo estándar HDMI 2.0, que podemos resumir en que nos permite aprovechar realmente el potencial de la nueva tecnología de ultra alta definición en los televisores 4K.

VERSIONES ANTERIORES

HDMI 1.0 : presentado en  diciembre de 2002 con  una tasa de transferencia máxima de 4,9 Gbps y tenía soporte para resoluciones de 1080p en anchos de banda de 60Hz. El audio que transmitía era de ocho canales y 192 kHz. Básicamente se trataba de dar soporte al DVD.

HDMI 1.2 : añade algunas mejoras tres años después. La principal de todas ellas, sin duda, es que da soporte a las pantallas y formatos de vídeo de los PC. dá  soporte al estádar One Bit Audio


HDMI 1.3:  sale menos de un año después. El ancho de banda es ya de 340 MHz y la tasa de transferencia de 10,2 Gbps. Soporta color en 10, 12 y 16 bit, así como los formatos de audio Dolby TrueHD y DTS-HD, utilizados en el HD-DVD y el Blue-ray. También se establece un nuevo miniconector destinado a videocámaras. PlayStation 3 y la Xbox 360 (ambas de finales de 2006) exigen HDMI 1.3

HDMI 1.4:  llegó el 2009, puede transmitir resoluciones de 4096×2160 píxeles, es decir, 4K. El estándar también pasa a soportar por primera vez vídeo en 3D, lo que resulta útil para ver películas pero también para jugar a videojuegos que tengan estas características. También se añade un microconector HDMI, más pequeño que el anterior miniconector y orientado a móviles y cámaras digitales.

domingo, 12 de marzo de 2017

INDUSTRIA 4.0: La Internet de las Cosas Industrial - IIoT

La alemana Siemens y su rival estadounidense General Electric (GE) se dedican a desarrollar la plataforma definitiva de cloud computing para Internet de las Cosas Industrial.

La cuestión es quién va a crear y dominar un ámbito de la tecnología que promete convertirse en la columna vertebral de la automatización industrial y proporcionar montañas de datos, desde inventarios de piezas hasta el seguimiento de productos tiempo después de su compra.

GE, Siemens y una constelación de otras compañías pretenden reinventar la fabricación al permitir a las empresas de todos los tamaños aprovechar las plataformas digitales que conectan cada etapa de la cadena de valor, desde el diseño hasta la producción y el mantenimiento.

Básicamente, el IoT industrial (IIoT) trata de conectar y utilizar los datos de punta a punta.

Utilizando una nueva generación de sensores incorporados, las empresas están descubriendo cómo realizar conversaciones digitales con sus equipos industriales y con productos como robots, turbinas, bombas y drones. Los sensores permiten a los fabricantes recolectar datos y enviar instrucciones.

IIoT es un mercado que podría valer más de US$ 150.000 millones en tres años, según la firma de investigación Markets & Markets. El mundo de las aplicaciones industriales implica menos inversiones corporativas de mayor tamaño, pero más especializadas.

El éxito de las plataformas dependerá de su apertura a la cooperación con marcas rivales y aplicaciones especializadas, como en los teléfonos inteligentes. Los sistemas requieren muchos “copropietarios”, dijo Roland Busch, director de tecnología de Siemens al WSJ.

Uno de ellos es Microsoft, que tiene acuerdos con Siemens y GE para vincularse con su plataforma cloud de Azure. Otros manejan tareas muy específicas dentro de montañas de datos industriales.

Siemens y GE compiten para agregar socios y ganar industrias, desde la atención de la salud a la generación de energía. La plataforma Predix de GE tiene más de 300 sociedades.

Siemens, que ha anunciado oficialmente seis alianzas para su plataforma MindSphere, dice que casi 100 más están en proceso. La plataforma de Siemens es menos abierta que sus rivales, pero pronto será tan abierta como cualquier otra.

La plataforma de GE ya es más compatible con otras nubes, dicen los expertos. Decenas de empresas ya están construyendo aplicaciones en ella. Los diseñadores de aplicaciones abarcan desde empresas tecnológicas hasta empresas industriales de la vieja guardia, como la alemana Robert Bosch. Esta empresa y GE acordaron recientemente hacer que sus plataformas de nube y software relacionado sean interoperables.

Aunque GE ha liderado la apertura de la plataforma, Siemens está por delante en el campo relacionado de la automatización de la fábrica. Siemens ha automatizado muchas de sus propias fábricas y produce unidades robóticas para automatizar otras.

Siemens y GE también han estado compitiendo para ampliar el atractivo de sus plataformas digitales comprando capacidades de software. Ambas compañías anunciaron el 2016 adquisiciones de empresas estadounidenses de tecnología.

Desde Industrial Internet Consortium, con sede en Estados Unidos que incluye GE y Siemens, dijeron que estos rivales están por delante de otros en el diseño de plataformas y que poseerán gran parte del mercado.

La base de datos analítica HANA de SAP (proveedor alemán de software empresarial) utilizada por muchas compañías para gestionar procesos de negocio como la planificación de recursos y la gestión de la cadena de suministro- ha surgido como un importante bloque para las empresas industriales que desean vincular algo como la gestión de costos a las máquinas de la fábrica.

Siemens construyó MindSphere directamente sobre la arquitectura de HANA y utiliza algunos aspectos de la plataforma IoT de SAP, mientras que GE y SAP están trabajando para hacer que HANA sea interoperable con Predix para beneficiar a los clientes compartidos. Bosch tiene una colaboración similar con SAP.



ANTECEDENTES

INDUSTRIA 4.0 -  la 4ta revoluciòn industrial

Industria 4.0, la 4ta revolución industrial o revolución 4.0 tiene que ver con la fabricación informatizada y con las máquinas interconectadas entre sí para aumentar el nivel de producción y disminuir los tiempos muertos, entre otras características.

Hay importantes avances vinculados con este concepto, así como también a la aplicación de Internet en el plano industrial. No se trata de que exista conectividad en una empresa, sino que las máquinas estén conectadas de modo tal que el proceso esté automatizado al máximo.

FACTORES :  hay conceptos que deben ser tenidos en cuenta tales como:
1) Cloud Computing, ya que la información se aloja en la Nube
2) Big Data, puesto que las maquinarias entregan muchísimos datos en cuestión de segundos
3) Seguridad de la información, ya que ninguna organización puede ser vulnerada en algo tan crítico cómo sus sistemas informáticos y sus procesos productivos.

VENTAJAS.  de implementar este tipo de soluciones se destacan:
reducción y hasta eliminación de los tiempos muertos,
 aumento de la productividad,
mejora en el nivel de satisfacción del cliente,
abaratamiento de los costos de producción
disminución de situaciones no previstas, a través del  análisis predictivo.

RECURSOS HUMANOS
Los avances en robótica, inteligencia artificial y automatización se han relacionado con el hecho de que menos personas tendrán empleo ya que sus tareas serán realizadas por soluciones tecnológicas. Estudios como uno de la consultora Business for Social Responsability (BSR), estima “que casi la mitad de los trabajos de hoy serán hechos por robots en 2035”.


Un estudio de la consultora Deloitte, “las máquinas, las computadoras e incluso los robots han creado en los últimos años más empleos en comparación con los que han destruido”. el informe menciona que el número de empleos de enfermería aumento un 909% desde 1992 a la fecha, y aquellos relacionados a la educación se incrementaron un 580%. Otras industrias que se han beneficiado significativamente son: analistas de negocios, especialistas en tecnologías de la información, trabajadores sociales y afines, artistas y gerentes financieros.

Del análisis de lo sucedido a nivel empresarial desde la primera revolución industrial, se puede afirmar que el avance tecnológico no tiene un impacto en la reducción del personal, pero sí en los perfiles requeridos, ya que las personas deberán tener nuevas habilidades basadas en procesos, metodologías y tecnología.

Según reporte de la IFR (International Federation of Robotics), China, Corea y Japón están introduciendo más robots en las fábricas que en la suma del resto del mundo. Es China el país donde más se ha crecido, un 20% anual, con unas estimaciones que dicen que se van a instalar 650.000 unidades más antes de llegar a 2020.


PRODUCTIVIDAD
Una fábrica de este tipo puede incrementar su productividad en un 20% anual. Además, puede reducir sus desperdicios en un 50% en el primer año. Las organizaciones que quieran aprovechar al máximo las ventajas de la Internet Industrial pueden hacerlo de manera gradual. De esta manera, pueden comparar cómo impacta la inversión tecnológica en el negocio.



Las soluciones ya están disponibles, y en muchos casos solo basta con brindarle conectividad a una máquina ya instalada. Como siempre, la decisión tiene que ver con los objetivos de negocio que se quieren alcanzar para que la empresa no solo sea más moderna y productiva, sino también más rentable y sostenible.


9 PILARES DE LA INDUSTRIA 4.0 - BOSTON CONSULTING GROUP

La empresa Boston Consulting Group indica de 9 pilares tecnológicos de la industria 4.0.
1. Big Data y análisis de los datos
2. Robots autónomos
3. Simulación
4. Sistemas para la integración vertical y horizontal
5. IIoT (Internet Industrial de las cosas)
6. Ciberseguridad
7. Cloud computing
8. Fabricación aditiva
9. Realidad aumentada


1: Big Data y análisis de datos
 El análisis y gestión de grandes cantidades de datos esta permitiendo optimizar diferentes procesos industriales, mejorar el consumo de energía y la calidad de la producción en aquellas factorías donde están sabiendo aprovechar este paradigma tecnológico.

2: robots autónomos
Los robots incorporan nuevas capacidades para trabajar sin un supervisor humano y son capaces de trabajar coordinandose para automatiazar un buen número de tareas logisticas y de producción.
IFR- International Federation of Robotics

3: Simulación
Se trata no sólo de crear entornos virtuales simulados sino también sobre el comportamiento en conjunto de máquinas, procesos y personas en tiempo real. Las simulación permitirá crear fabricas laboratorio en entornos controlados y virtuales para realizar pruebas y configuraciones óptimas para la fabricación en planta antes de empezar siquiera a producir el producto.

4: Sistemas para la integración vertical y horizontal
Constituidos por  plataformas e integración de sistemas de producción e información. Existe la necesidad creciente, interna y externa, de gestionar sistemas integrados para disponer de una plataforma única, donde los empleados y colaboradores tengan acceso a los SCM, ERP, CRM, CMS, HRM. Todos ellos sistemas independientes pero que deben estar conectados en favor de una automatización de tareas y garantía de una gestión integral de la experiencia del usuario.

5: Internet Industrial de las cosas o IIoT
Mediante el uso de sensores y dispositivos conectados en red.  En este campo se busca que las máquinas, productos y piezas sean capaces de comunicarse entre si para facilitar oportunidades de optimización y facilitar la toma de decisiones individualizadas en tiempo real durante el proceso productivo.

6: Ciberseguridad
La fabrica del futuro implica que la empresa esté conectada con los riesgos de seguridad que esto conlleva ante la posibilidad de sufrir ataques informáticos.  La ciberseguridad permite blindar todos los procesos y el acceso a cualquier intruso.

7: Cloud computing
Cada vez más tareas relacionadas con la producción de bienes y servicios requieren del uso de aplicaciones y datos compartidos a través de diferentes localizaciones y sistemas más allá de los limites de los servidores de una compañía. El cloud computing facilita una gran reducción de costes, tiempo y eficacia.

8: Fabricación aditiva
La fabricación aditiva ( impresión 3D) consiste en la fabricación de piezas a partir de la superposición de capas de un material, normalmente en polvo, para la obtención de un modelo 3D, sin necesidad de moldes ni utillajes de ningún tipo. Esto permite  el abaratamiemto de las series en corto y creación de prototipos.

9: Realidad aumentada
La realidad aumentada soporta una gran variedad de usos y servicios en la medicina y la educación. Aplicado a la industria 4.0 tenemos desde el envío de instrucciones de montaje a través del móvil, a desarrollos para el prototipo de piezas o el uso de dispositivos especiales para el manejo y operación con determinada maquinaria.

Aunque la fábrica del futuro sea un lugar de trabajo automatizado y con menos presencia humana, el presente de la fabricación sigue pasando por las personas.

El hecho de que veamos nuevas aplicaciones y desarrollos de la tecnología, hace que muchas veces olvidemos que el objetivo principal de la industria 4.0 es crear ambientes de trabajo dinámicos y ágiles dónde las personas estén motivadas a través del uso de las tecnológicas.  El lugar donde las personas toman las decisiones, apalancan el conocimiento y son capaces de hacer evolucionar la tecnología hacia el siguiente nivel.

ADIDAS SPEEDFACTORY

Adidas, fabricante alemán de zapatos y artículos deportivos, decidió en los noventa trasladar a China e Indonesia sus plantas industriales,  quería aprovechar la mano de obra barata. Veinte años después, el aumento de los costes de fabricación en Asia y la automatización empiezan a poner en entredicho esa ventaja de las economías emergentes. Ahora planea  el regreso de parte de su producción a Alemania en centros automatizados.

Adidas ha puesto en marcha un centro piloto en Ansbach, donde robots y grandes impresoras en 3D producirán zapatos personalizados, en menor tiempo y con gastos reducidos. Adidas Speedfactory su producción a gran escala comenzará a partir de 2017. El grupo contratará a 160 trabajadores, que se encargarán de llevar a cabo tareas más sofisticadas, como la supervisión de las máquinas.

Adidas produjo 301 millones de pares de calzado deportivo en 2015 y necesita producir 30 millones de pares adicionales cada año para alcanzar sus objetivos de crecimiento para el año 2020. En futuro, el grupo planea construir fábricas de robots que operen en Gran Bretaña o en Francia, e incluso podría producir las camisetas del equipo nacional de fútbol de Alemania en estos centros. El rival de Adidas, Nike, también se está planteando la puesta en marcha de fábricas con robots.

"Las nuevas tecnologías permiten sustituir mano de obra con maquinarias. Por esto, los costes laborales se convertirán en un factor secundario a la hora de establecer la ubicación de una planta industrial", explica George Chondrakis, profesor de innovación tecnológica de la Universidad Pompeu Fabra y doctor en Oxford. En cada previsión existen fallos de cálculo, matiza Chondrakis, pero es cierto que "deberíamos observar el regreso de algunas plantas industriales en los países más avanzados como resultado de la digitalización, la robótica y la impresión 3D".

RECOLOCACION 

En 2013, el presidente Obama exhortó a las empresas a aprovechar la impresión en 3D para devolver algunas de sus fábricas a casa. Y firmas como General Motors, Walmart y Caterpillar ya han respondido a esta petición. La web que se encarga de informar sobre cómo repatriar las fábricas, Reshoringinstitute.org, menciona más de 300 casos de relocalizaciones, entre los cuales destacan los de Boeing e Intel. El fabricante de aviones, que ya en los noventa apostó por un modelo de diseño totalmente computerizado, pretende ahora relocalizar la fabricación de los interiores del nuevo Boeing 777x a plantas inteligentes en EE UU. Intel, por su parte, anunció que construirá sus microprocesadores en Arizona (EE UU), tras una inversión de cinco millones de dólares.

"La relocalización será un fenómeno a largo plazo", pronostica Hal Sirkin, socio mayoritario de la consultora The Boston Consulting Group y coautor del informe Made in America, again. El encarecimiento de la mano de obra china es el factor desencadenante para que las empresas consideren conveniente repatriar las fábricas, sostiene Sirkin. "En los últimos 15 años la demanda de mano de obra aumentó rápidamente en China y los salarios subieron hasta un 25-50% cada año. A partir de 2015 fabricar según qué productos en Estados Unidos es más barato, y prevemos que, si añadimos los gastos de transporte, los costes se equilibran cada vez más".



INDUSTRIA CONECTADA 4.0 EN ESPAÑA

El Ministerio de Industria, Energía y Turismo de España presentó, en julio de 2015, la iniciativa Industria conectada 4.0, enmarcada en la Agenda para el Fortalecimiento del sector industrial.



DIGITALIZACION DE GENERAL ELECTRIC

William Ruh  Jefe de Digitalización en General Electric, tiene a su cargo diseñar e implementar la estrategia digital de GE, la convergencia del mundo físico con el digital. Y es que GE, que vende desde turbinas de avión hasta equipamiento médico, se está transformado, pasando de ser una compañía industrial a un emporio digital y en este proceso está utilizando la tecnología como su mejor aliado.

Ruh indicó "Si las compañías no abrazan la digitalización no podrán competir en la próxima década". De aquí la urgencia de GE de transformar sus negocios para la nueva era digital. Para tal efecto, están tomando medidas drásticas. El 2015 se deshicieron del 40 % de sus negocios, incluido su brazo financiero, para enfocarse en las áreas más rentables, incluido el software, que hoy vende mas de US $ 6,000 millones al año.

GE trabajó con Amazon para reducir y optimizar sus aplicaciones internas. Estas pasaron de 9.000 a 5.000 y ahora pueden ser desplegadas a nivel global en cuestión de minutos y no semanas. Hoy, todas las aplicaciones están en la nube de Amazon Web Services, permitiéndole a la compañía ser mucho más eficiente y reducir sus centros de datos a nivel mundial, pasando de 34 a 4.

Para Ruh, "la década pasada fue de la Internet de los consumidores, la próxima década será del Internet industrial”. Con respecto a la seguridad, manifestó "que los requerimientos son diferentes, pues las máquinas no se preocupan por el tema de privacidad".

Europa está abrazando la industrialización digital más rápido que los Estados Unidos. Uno de los principales motivos para este movimiento hacia la digitalización son los costos. "Cuando una compañía no está creciendo hay que encontrar mayores eficiencias por medio de la tecnología. Este es un cambio muy profundo", explicó Ruh.

Entre 1990 y 2010 el mundo industrial registró aumentos de productividad del 4 % cada año. "Luego vino el 2011 y desde entonces los aumentos en productividad son apenas del 1%. Los que estamos en el sector industrial estamos tratando de volver de nuevo a lograr el 4% de aumento en productividad", concluyó Ruh.


General Electric trabaja desde hace años en un proyecto titulado Industrial Internet, el que busca asociar y complementar los avances tecnológicos :
La multiplicidad de máquinas, de dispositivos, y de redes, resultantes de la Revolución Industrial
Los desarrollos más recientes de los sistemas de información y de comunicación



INDUSTRIA 4.0

Industria 4.0 conlleva muchos significados y aglutina múltiples tecnologías, algunas ya consolidadas y otras en proceso de desarrollo a través de innovaciones disruptivas. Sin embargo, los primeros avances en este ámbito han implicado la incorporación de una mayor flexibilidad e individualización de los procesos de fabricación. Se espera que Industria 4.0 sea capaz de impulsar cambios fundamentales del mismo nivel que generaron la anteriores revoluciones industriales.



La creciente y veloz interacción entre los mundos reales y virtuales ha dado lugar al Internet de las Cosas (IoT: Internet-of-Things) que implica la combinación de conceptos desarrollados en los últimos 20 años, tales como Manufactura Integrada por Computadora (CIM), Smart Manufacturing, Big Data, robótica colaborativa,Web 2.0, entre otros. La convergencia de todas estas tecnologías permitirá que en el futuro la producción industrial se caracterice por una manufactura altamente flexible que facilitará una fuerte individualización de los productos con la optimización de los procesos que les agreguen valor, además de una granintegración entre clientes y socios de negocios. Aquello dará como resultado una estrecha vinculación entre la producción de bienes y la generación de servicios de alta calidad, lo que conducirá a la fabricación de los llamados productos híbridos.

  
La Quinta Conferencia ministerial sobre la sociedad de la información de América Latina y el Caribe a desarrollarse en Agosto 2015, tiene como documento de trabajo: La nueva revolución digital: de la Internet del consumo a la Internet de la producción


APLICACIONES

Para poder aprovechar el potencial del Internet industrial, se necesita un mercado para aplicaciones nuevas e innovadoras. ¿Cuánto tiempo pasará para que los fabricantes logren el ecosistema de aplicaciones que necesitan?

La cantidad de datos industriales generados está aumentando con una rapidez dos veces mayor que la de los datos de los consumidores. Sin embargo, los sistemas de información que ayudan a ingresar estos datos en la nube, los retiran y analizan en las configuraciones en un útil tiempo real, se encuentran todavía en sus primeras etapas. Esto podría cambiar pronto conforme a las figuras industriales alrededor del mundo aprovechen el potencial de una tienda de aplicaciones a escala industrial para el sector de fabricación con un valor de 16% del PIB mundial.




Solo el 2014, el Digital Manufacturing y Design Innovation Institute (DMDII) ha asegurado más de 200 millones de dólares provenientes de más de 200 organizaciones afiliadas incluyendo empresas, gobiernos y universidades. Todos estos miembros comparten una visión en común: lograr una cadena de valor totalmente digital que revolucionará el modo en que se diseñan, fabrican, distribuyen y se mantienen los productos.

Las compañías como ABB, Siemens y GE, ya están avanzando en la creación de algunos de los elementos esenciales de esta plataforma de fabricación de última generación, la nube, el software, la seguridad y las soluciones analíticas, son lo suficientemente sólidas y seguras para construir infraestructuras vitales. Una plataforma de GE, llamada Predix, brinda un adelanto de lo que viene en el futuro: Aplicaciones actuales en desarrollo que comprenden desde modelos de mantenimiento predictivo para motores de reacción, hasta entornos de realidad aumentada para los técnicos en las fábricas y en el campo.

Dentro de unos años, es probable que se pueda ver emerger una capa de plataforma viable, completa con almacenamiento, seguridad y herramientas flexibles de gestión de datos. Lo que permitirá niveles de análisis, pruebas y respuesta sin precedentes, y creará una gran cantidad de nuevos modelos y servicios de negocios digitales.

Pero lo que resulta más interesante es lo que ocurre cuando esta plataforma se abre a desarrolladores externos, cuando los expertos de la industria y los desarrolladores tienen los conjuntos de datos, los kits para desarrolladores y las API necesarias para crear aplicaciones totalmente nuevas con el fin de realizar innovaciones inimaginables, y cuando cada una de estas aplicaciones se puede verificar, asegurar y comercializar mediante una tienda de aplicaciones completa.

Este boom de innovación en aplicaciones se aproxima rápidamente y ya se está conectando con la realidad aumentada, las impresiones tridimensionales y los dispositivos de consumidores que se tienen en la actualidad. Reunir todos estos elementos en las manos de millones de desarrolladores, y las tiendas de aplicaciones en nuestros teléfonos inteligentes parecerán en comparación a un juego de niños.


ANTECEDENTES

En 2012, la Comisión Europea estableció el objetivo de impulsar la participación de la manufactura del PIB en la región del 15% al 20% en 2020. Una de las iniciativas para lograr esta meta surgió en Alemania ese mismo año cuando el grupo de trabajo Industria 4.0 (coordinado por la Academia Alemana de Ciencias e Ingeniería –ACATEC y la empresa Bosch) efectuó las recomendaciones para que el gobierno alemán considere a esta industria como política de Estado y apoye dicho proceso con miras a dar forma activamente a la cuarta revolución industrial.

En el 2013 se fundó la Plataforma Industria 4.0 y surgieron los primeros Smart Services. Secundando esta tendencia, el parlamento austríaco emprendió en el año 2014 un proyecto piloto denominado: "Industria 4.0: previsión y asistencia técnica para la próxima revolución industrial".

En el 2014 otros estados miembros de la Unión Europea (UE) como Finlandia, comenzaron a generar procesos de prospectiva en esta línea. Esta ola de prospectiva  llegó al Parlamento Europeo a través de su área de Evaluación de las Opciones de Política Científica y Tecnológica (STOA: Scientific and Technological Options Assessment).
Si bien la promesa de Industria 4.0 es aumentar la productividad, reducir los costos operativos
y hacer frente al gran desafío, tanto del cambio climático como de la medicina individualizada, a lo
largo de la próxima década, surgen diversos cuestionamientos que propiciarán el debate sobre las bondades de esta iniciativa. Entre esas preguntas destacan: ¿Cuáles serán las tensiones que emergerán a
nivel empresa, inter-organizacional y social al implantar este modelo industrial? ¿Qué consecuencias
socialmente indeseables se darán? ¿Qué mecanismos de gobernanza se deberán aplicar? Asimismo, la
especialista enfatizó sobre el debate que propiciará en las instancias parlamentarias el definir los instrumentos de política pública adecuados a corto, mediano y largo plazo para Industria 4. 0, así como el desafío que implicará adaptarlos a nivel país, región o incluso globalmente.


Algunas tecnologías englobadas en la Industria 4.0

Big Data: comprende el análisis, administración y manipulación inteligente de una gran cantidad de
datos a través de modelos de descripción, predicción y optimización para una mejor y más eficiente
toma de decisiones.

Cloud Computing (La Nube): plataforma compartida de recursos computacionales tales como servidores, almacenamiento y aplicaciones, utilizados a medida que se requieren y cuyo acceso es posible desde cualquier dispositivo móvil o fijo con acceso a Internet.

Fabricación Aditiva e Impresión 3D: fabricación de un cuerpo sólido a partir de la deposición de finas capas sucesivas de un material, normalmente en polvo, hasta conformar la figura y forma deseada.

Robótica Colaborativa: los robots industriales  compartirán su espacio con trabajadores humanos con quienes colaborarán.Una nueva generación de robots ligeros, y manejables configurarán la denominada “fábrica inteligente”.
Sistemas Ciberfísicos: tecnologías informáticas y de la comunicación incorporadas en todo tipo de dispositivos, dotándolos de “inteligencia” y autonomía lo que redundará en una mayor eficiencia. 

StartUp: WAYRA 2017 convocatoria de 43 plazas

WAYRA la aceleradora de proyectos de Telefónica, abrió la primera convocatoria de startups de 2017. Se buscan proyectos de Innovación Tecnológica dentro de los ámbitos de Internet de las Cosas (IoT), Cloud, Big Data y Ciberseguridad. El período de inscripción comenzó el 27 de febrero y cierra el 2 de abril.
Hay 43 plazas: ocho para Lima (Perú), ocho para Bogotá (Colombia), ocho para Barcelona (España), siete para Madrid (España), siete para Munich (Alemania) y cinco para Caracas (Venezuela).

El proceso se dividirá en cinco etapas. Una vez finalizada la presentación se evaluarán las iniciativas teniendo en cuenta la madurez, el atractivo y el potencial, el modelo y cuán innovadora es. Luego habrá una preselección y más tarde se elegirán los ganadores para después firmar los contratos correspondientes.
En septiembre 2016 Wayra dio detalles de su operación. Hasta ese momento y desde su puesta en funcionamiento, en 2011, había invertido 32 millones de dólares en 600 startups. De ese total, 120 trabajaban en conjunto con alguna de las filiales de Telefónica en el mundo.


ANTECEDENTES

La Universidad del Internet de CAPECE

La Cámara Peruana de Comercio Electrónico - CAPECE del Peru, viene promoviendo el Programa Analfabetismo Digital Cero que busca la creación de más start ups para dinamizar el comercio electrónico.

Para ello han creado el portal la universidaddelinternet.com donde los fundadores y CEOs de empresas peruana de e-commerce comparten sus conocimientos y experiencias del mercado.

“Si hacemos un análisis podríamos decir que tuvo que ver mucho la penetración de nuevos operadores móviles. Teniendo el usuario más acceso a la tecnología y familiarizándose con ella empieza a perder el miedo y a confiar más en este canal. Ahora somos un mercado totalmente nuevo por lo que esperamos que empiecen a aparecer nuevos actores o nuevos emprendedores en provincias, por eso queremos impulsar las start ups”, señaló Helmut Cáceda, presidente de CAPECE.

“La mayoría de stat ups se concentran en Lima y se concentran en problemas de Lima. Pero si se empieza a incentivar eso en provincias o en zonas rurales, para problemas de la sierra, selva sería una súper oportunidad para estos emprendedores; el ingresar a un mercado que aún no se está explotando”, mencionó



WAYRA PERU.

Wayra Perú, la aceleradora de startups de Telefónica Open Future, anunció la apertura de la primera convocatoria a nivel nacional para la búsqueda de 3 startups que podrán recibir financiamiento para acelerar su funcionamiento.

La aceleradora de negocios digitales proporcionará a las startups una financiación de hasta US$ 110,000, el 50% se otorgará en capital semilla y el restante en los servicios de la propia aceleración.

En esta primera convocatoria se prestará especial atención a las soluciones en tecnologías de internet (IoT), las aplicaciones cloud, y los proyectos para infraestructuras de red y Big Data.

Wayra Perú 2016 abrió sus inscripciones desde el 11 de abril hasta el 8 de mayo 2016, período en el cual los emprendedores del país podrán registrar sus iniciativas en su sitio web.

4 equipos de startups se unieron en la convocatoria de Wayra Perú: Restaurante.peSportafolioZanna y Chazki.

Uruguay: Agencia Nacional de Investigación e Innovación (ANII)


LAS CIUDADES DEL START-UP




StartUp: Gran Coalición por el Empleo Digital en UE

En el marco de la primera Feria Europea de Empleo Digital  el Grupo Telefónica ha reforzado su compromiso con la Gran Coalición Europea por el Empleo Digital para impulsar la innovación, la formación digital y el emprendimiento.

Telefónica ha puesto en marcha varios proyectos que cubren desde el impulso de la formación digital en todas las etapas de aprendizaje de la vida –incluida la formación intensiva en materias digitales y el mayor desarrollo de competencias científicas STEM, por ejemplo– hasta la creación de ecosistemas de emprendimiento que detecten y promuevan el crecimiento del talento desde las etapas más tempranas hasta las más avanzadas.

Todas estas iniciativas se desarrollan desde Fundación Telefónica y Telefónica Educación Digital y desde el área  global de la compañía dedicada a la innovación abierta, emprendimiento e inversión, Telefónica Open Future, que apoya todas las fases del proceso emprendedor a través de sus siete iniciativas:  Think Big, Talentum, Espacios de crowdworking, Wayra, Amérigo, Telefónica Ventures y plataforma CIP.


Como uno de los socios fundadores y colaborador de la Gran Coalición por el Empleo Digital, Telefónica ha reforzado sus objetivos en este ámbito con las siguientes prioridades:

-Incrementar significativamente el número de empleos creados por proyectos vinculados al programa Telefónica Open Future en los próximos años, como resultado del incremento de los recursos y el mayor grado de madurez de las iniciativas;

-Acelerar una media de aproximadamente 150 proyectos al año desde la aceleradora Wayra y albergar y apoyar unos 400 proyectos de startups en sus espacios de crowdworking que hay distribuidos por todo el mundo;

-Adicionalmente, emplear a través de los programas de Talentum, a alrededor de 250 jóvenes más en los próximos años en las operaciones de Telefónica en Europa.

Todo ello se une a las actividades realizadas hasta ahora en 17 países que incluyen inversiones en 600 startups a través del programa Open Future; unas 2.500 becas a jóvenes estudiantes a través de Talentum; los más de cuatro millones de estudiantes formándose a través de las plataformas de Telefónica Educación Digital, que cuenta además con más de 40.000 horas de desarrollo de contenido digital al año; o, finalmente, los más de 5.000 jóvenes formados sólo en el último año dentro del programa de empleabilidad de Fundación Telefónica, a través de las iniciativas de lanzaderas, formación profesional y Think Big.  El conjunto de programas educativos y de empleabilidad de Fundación Telefónica ya han beneficiado a más de 30.000 jóvenes.

Adicionalmente, Telefónica está trabajando en un análisis en más de 30 países de las infraestructuras digitales y el acceso a las mismas y su relación con el ecosistema emprendedor. Los vínculos entre estas variables y cómo contribuyen al desarrollo de la economía digital es precisamente el foco del Telefónica Index on Digital Life (TIDL), un informe que la Telefónica presentará próximamente.



USA: Datos de Teecomunicaciones






ANTECEDENTES

MOVILES USA - 2015

}Los ingresos de servicios móviles en el mercado de la telefonía en Estados Unidos que generará  195,000 millones dólares el 2015, crecerán a 197,000 millones dólares en 2020, apenas 0.2 % en promedio anual, impulsados por un crecimiento de 5.7% en los ingresos de prepago y el incremento del 3.3% en los ingresos de datos, según Strategy Analytics.

El estudio señala que el mercado estadounidense se ha desacelerado conforme tiene una menor cantidad de suscriptores nuevos. Por ello, los operadores buscarán enfocarse en los servicios de valor agregado, para diferenciarse de sus competidores y al mismo tiempo, monetizar el gran consumo de datos de los suscriptores.

Strategy Analytics estima que pese a lo anterior, los operadores lograrán sumar cerca de 100 millones de conexiones inalámbricas (incluidas las conexiones de electrónicos, pero con exclusión de máquina a máquina) que se añadirán hasta 2020, alcanzando una tasa de penetración de 128 % de la población de Estados Unidos.




Duopolio en Mercado de USA

Verizon con 108.9 millones de usuarios móviles, seguido de AT&T con 107.8 millones, son los operadores Móviles dominantes  en USA.  Le siguen Sprint y T-Mobile.  John Legere CEO de T-Mobile cuestiona que los dos principales operadores inalámbricos encarecen y se apoderan del espectro radioeléctrico para obstaculizar la competencia, incrementar los precios y perjudicar a los consumidores.

T-Mobile posee 56.8 millones de conexiones móviles en Estados Unidos y obtuvo ingresos en el primer trimestre de 2015 por 7,800 millones de dólares. USA tiene mas de 180 millones de usuarios de smartphones

Verizon emplazó a T-Mobile a participar en la próxima subasta de espectro en la banda de 600 MHz en USA a realizarse en 2016, luego que recupere las frecuencias que utilizan los radiodifusores.

“AT&T y Verizon están protegiendo el duopolio inalámbrico mediante el acaparamiento de espectro a expensas de los consumidores estadounidenses”, señaló. También advirtió que ambos “están tratando de controlar a la Comisión Federal de Comunicaciones (FCC) como lo hacen con el espectro y es importante que los consumidores entiendan lo que está en juego”, advirtió Legere


T-Mobile ha solicitado a la Comisión Federal de Comunicaciones (FCC) estadounidense que reserve bloques de espectro en las bandas bajas para operadores más pequeños.

Verizon recordó  que T-Mobile se abstuvo de participar en la subasta de espectro de 2007 y que la filial de Deutsche Telekom en Estados Unidos busca dejar fuera de la nueva subasta a Verizon y AT&T.

Verizon desmintió que Sprint y T-Mobile, tercero y cuarto proveedores móviles en Estados Unidos, sean operadores pequeño. Informó que T-Mobile pertenece a Deutsche Telekom y que tiene un valor de mercado de 76,000 millones de dólares, en tanto que Sprint es filial de la japonesa Softbank que vale 70,000 millones de dólares.

La FCC obtuvo 44,900 millones de dólares por 65 MHz de espectro en la subasta AWS-3 concluida en enero de 2015. En su oportunidad, Legere calificó de desastrosa para los consumidores la subasta AWS-3 por la “dominancia injusta” de AT&T y Verizon y el descuento que obtendría Dish Network.


 COMCAST COMPRARIA T-MOBILE

Comcast habría iniciado conversaciones con Deutsche Telekom para la compra de su filial T-Mobile en Estados Unidos. Deutsche Telekom posee 66 % de las acciones de T-Mobile.

Comcast principal operador de televisión por cable de USA buscaría incursionar al mercado móvil con la adquisición de T-Mobile y consolidar una oferta cuádruple play (TV, banda ancha, telefonía fija y móvil).

Comcast fracasó en  su intención de adquirir a Time Warner Cable por 45,000 millones de dólares  ante el rechazo de los reguladores, por considerar que fortalecía su oferta en los mercados del video y la banda ancha.

Recientemente, Dish Network filial de Softbank de Japón, desistió de su intento de comprar T-Mobile, también por obstáculos regulatorios. Otro intento fue el de Iliad, que opera como Free en Francia, pero fue rechazado por Deutsche Telekom por ser demasiado baja la oferta financiera.

Comcast finalizó el primer trimestre de 2015 con 22.3 millones de suscriptores de televisión de paga. Por su parte, T-Mobile concluyó el mismo periodo con 56.8 millones de usuarios móviles. Comcast busca enfrentar la competencia de operadores alternativos Over the top (OTT) como Netflix, que en Estados Unidos tiene 41.3 millones de clientes de video en línea.


SPRINT

 En medio de un proceso de reestructura que incluye recortes de gastos y una oferta más agresiva, Sprint reportó caída en sus ingresos de 8.4 % durante el 2do trimestre 2015 en comparación con el mismo periodo del 2014, con un total de 7,037 millones de dólares.

Los ingresos por servicios se vieron afectados por los cambios de clientes para separar planes de tarifas, el financiamiento del dispositivo y las pérdidas de los clientes pospago. Los ingresos por equipo se vieron afectados por un cambio de venta a plazos, que reconoce más ingresos en el punto de venta, y a las ventas de arrendamiento, que reconocen los ingresos con el tiempo.

 Sprint logró adiciones netas totales (incluyendo ventas mayoristas, afiliadas y operadores móviles virtuales) por 675 mil suscriptores. Bajo su propia marca, el segmento pospago creció 310 mil nuevos suscriptores, que fueron compensados por la pérdida de 366 mil suscriptores en el segmento prepago.

En total, la compañía finalizó con 30 millones de suscriptores en la modalidad pospago y 15.3 millones en modalidad prepago, así como 11.45 millones bajo modalidad mayorista como operadores móviles virtuales (MVNO. Además de 856 mil conexiones adicionales por Clearwire, la compañía atiende en total a 57.66 millones de suscriptores, 5.7 por ciento más que un año antes.

Pese a ello, es el cuarto operador móvil de Estados Unidos, por debajo de T-Mobile que ha acelerado sus adiciones netas para llegar a 58.9 millones al cierre de junio de 2015, 16.5% más que el año pasado.

Marcello Claure, CEO de Sprint, dijo que logró eliminar costos más de lo esperado. "Ya empezamos con medidas para eliminar tanto o más costos durante el próximo año mientras seguimos reinventando nuestra forma de actuar", dijo en una llamada con analistas, citada por Reuters.

Claure también declaró que se centró en la retención de clientes, los cuales cuestan mucho menos que la adquisición de nuevos.

La utilidad operativa se redujo 3 5 a 501 millones de dólares con respecto al primer trimestre fiscal de 2014. Sprint reportó una pérdida neta de 20 millones de dólares, comparado con una ganancia de 23 millones de dólares del año anterior.

Los analistas esperaban una pérdida de 9 centavos por acción sobre ingresos de 8,430 millones de dólares..


HISTORIA DE TELECOMUNICACIONES USA

 El mercado USA de Telcos se fue consolidando a prtir de las fusiones de 2010, en lo que ahora es el sector de telecomunicaciones americano con prácticamente cuatro grandes grupos. Dos muy grandes como AT&T y Verizon, con más de 100 millones de clientes móviles cada uno, y otros dos mucho más pequeños, Sprint y T-Mobile, con unos 50 millones de usuarios en cada caso. Una vez consolidadas las compañías, cada grupo se encargó, por propio interés, de unificar la tecnología, de forma que por fin se pudo hablar en todo el país con el mismo móvil. El problema tecnológico que había creado la dispersión corporativa se había resuelto vía consolidación corporativa.




Verizon formado por la agregación de muchos grupos- era el líder del móvil, pero se equivocó al elegir la tecnología para el estándar 3G. Tomó la norma americana (CDMA 2000) en vez de la europea (WCDMA), que fue la que se impuso como estándar casi mundial en Asia, África y Latinoamérica, sólo con algunos países hispanos, EEUU y Japón como excepciones. Debido a ello Verizon vio como AT&T -que acertó eligiendo el estándar europeo- que era más pequeña en el negocio móvil, la alcanzaba y sobrepasaba en clientes, porque tenía acceso a los móviles del 3G europeo, un portafolio mucho más amplio y mejor, ya que todos los fabricantes preferían desarrollar sus productos en la norma que tenía las mejores economías de escala. La puntilla a este proceso llegó cuando Apple eligió la norma europea para su iPhone 3G, lo que permitió a AT&T ponerse en cabeza y llevarse, además, a muchos de los mejores clientes de EEUU.

El auge de los smartphones había puesto a Verizon y AT&T en gravísimos problemas debido al crecimiento exponencial del consumo de datos en sus redes que las estaban llevando a la saturación. Tanto Verizon como AT&T habían lanzado planes premium en los que ofrecían datos ilimitados en los móviles, algo que nunca se hizo en Europa, donde los operadores, más prudentes, solo ofrecieron bonos con volúmenes de datos cada vez mayores, pero siempre limitados. Cuando la democratización de los smartphones y el boom de las redes sociales hicieron explotar el consumo de datos para imágenes y video a través de aplicaciones como Youtube o Facebook, los dos grandes norteamericanos fueron conscientes de que no podrían seguir aumentando la capacidad de las redes 3G sin límite y sin ningún ingreso adicional. Se imponía un cambio de estándar para aprovechar el 4G, mucho más eficiente a la hora de transformar cada megahercios en gigabytes de datos descargados. De hecho, tanto Verizon como AT&T dejaron de comercializar sus planes de datos ilimitados hace años, pero aún conservan a miles de clientes que las mantienen. Los intentos de AT&T de contener el ingente consumo de datos de estos clientes, frenando las velocidades cuando estos clientes superan los 5 gigabytes de consumo mensual, han provocado, que FCC, el regulador de las 'telecos' en EEUU, le haya multado recientemente con 100 millones de dólares, la multa más alta que ha impuesto en toda su historia.

La única forma que tenía Verizon de reducir esa desventaja y mejorar a la vez sus problemas de congestión de red era quemar etapas, olvidarse del 3G y pasar la competencia al 4G, -la red que multiplicaba la velocidad de los datos móviles-, lo antes posible. Eso hizo que iniciase el despliegue del nuevo estándar antes que ningún otro operador y país. Al principio no había casi móviles con esa tecnología y eran caros, a partir de 2010 empezó a aprovechar las ventajas de su apuesta temprana por el 4G. Hasta el punto de que, años después, AT&T no tuvo más remedio que seguirla en su apuesta masiva por el despliegue de redes 4G para no quedar irremediablemente atrás.

Debido a esa pugna, ahora EEUU es uno de los países con más cobertura y mayor número de usuarios en 4G y el retraso que tenía en los años noventa y en la década pasada respecto a Europa se ha convertido en liderazgo mundial.