domingo, 26 de abril de 2015

REZENCE y PMA: Alianza para la Energía Inalámbrica

Los estándares de la industria se unen para simplificar y acelerar la proliferación de la carga inalámbrica, lo que permitirá poner a prueba esta tecnología de recarga de baterías en aeropuertos, hoteles y otros lugares.

Similar al de la revolución WiFi de 2003 que permitió a las personas conectar sus portátiles a Internet sin necesidad de cables, el objetivo de las nuevas tecnologías de carga inalámbrica es liberar a la gente de la dependencia que tienen de sus cables de alimentación.

En la Feria Internacional de Electrónica de Consumo de 2015  se han fusionado dos grupos de estándares para la tecnología de carga inalámbrica.
La Alianza para la Energía Inalámbrica ( A4WP - Alliance for Wireless Power), la cual da soporte a una tecnología denominada Rezence o resonancia magnética,


y la Alianza para Asuntos Energéticos  ( PMA - Power Matters Alliance ) han unido sus fuerzas para ayudar a crear el momento de la carga inalámbrica, algo que la firma de investigación IHS espera que genere unos ingresos de 8,500 millones de dólares en 2018, frente a los 216 millones de 2013.
 
 La energía inalámbrica o resonancia magnética transfiere la electricidad de forma segura entre dos objetos mediante bobinas metálicas. La tecnología de resonancia magnética ofrece flexibilidad posicional, permite cargar a través de la mayoría de los escritorios y puede cargar varios dispositivos de distintos tamaños y niveles de potencia de forma simultánea.

Muy pronto, las estaciones de carga inalámbrica llegarán a ser habituales en aeropuertos, cafeterías, hoteles y otros lugares públicos. La tecnología puede adaptarse fácilmente a las mesas y los mostradores que utilizamos en la actualidad, convirtiéndolos básicamente en puntos de carga inalámbrica.

Las tabletas equipadas con chips Intel también incorporarán esta tecnología a finales del 2015

GOOGLE lanza APP Android para el trabajo y Chromebit

Google quiere convertir los smartphones Android en un eje digital de la vida personal y profesional de sus usuarios, por lo que ha lanzado un conjunto de herramientas diseñadas para empresas y empleados que quieren realizar su trabajo desde su teléfono inteligente.

Android para el trabajo” fue presentada el 25 de febrero y busca enfrentar a Microsoft y BlackBerry, los cuales ya se han centrado en el mercado corporativo desde hace años, así como en el 2014 Apple aliado con IBM crearon más aplicaciones de iPhone y iPad para empresas y entidades de gobierno.


Según IDC, 96 % de los smartphones vendidos en 2014 se ejecutan en el software de Apple (iOS) y Google (Android), pero el uso  es principalmente para tomar fotografías, enviar mensajes a amigos, actualizar las redes sociales y, en muchas ocasiones, revisar el correo electrónico de su trabajo.

Google espera adquirir una mayor ventaja en el mercado de la movilidad profesional ante su liderazgo en ventas de teléfonos inteligentes. De acuerdo con IDC, en 2014 se vendieron más de 1,000 millones de teléfonos Android en comparación con 193 millones de iPhones.



Las herramientas incluyen la capacidad de crear perfiles personales y profesionales independientes en el mismo teléfono para evitar la preocupación de los trabajadores por el espionaje de los jefes en su vida privada.

“Android para el trabajo” estará automáticamente disponible en los smartphones que se ejecutan en la versión más reciente del sistema operativo Lollipop o la versión 5.0. También podrá descargarse la app para que funcione en versiones anteriores del software

RESULTADOS AL CIERRE 2014


 Los ingresos de Google  se incrementaron a 18.10 mil millones de dólares (mdd) durante el cuarto trimestre del 2014,  15% con respecto al mismo periodo de un año antes, pese a un menor rendimiento de la publicidad y afectado por la fortaleza del dólar en mercados extranjeros. si el tipo cambiario se hubiera mantenido estable  sus ingresos hubieran sido 514 mdd más altos.

Los sitios de Google generaron ingresos por 12.43 mil mdd en el cuarto trimestre de 2014, lo que representa un aumento de 18%. Los ingresos de red  y sitios asociados generaron ingresos por 3.72 mil mdd, tras un aumento del 6 % sobre el cuarto trimestre de 2013. Los ingresos internacionales totalizaron 10.23 mil mdd.

El número de clics en anuncios pagados aumentó sólo un 11% en el trimestre
El llamado coste medio por clic (CPC) también siguió disminuyendo, al caer 3% año con año.



58 % de los ingresos totales de Google provienen del exterior, equivalentes a 9.55 mil mdd.
 Las tarifas publicitarias de Google en Internet que han venido cayendo de manera constante, frenaron su caída a una tasa anual de 2 %.

durante el tercer trimestre., la utilidad operativa se incrementó ligeramente 1 % a 3 mil 761 mdd, mientras que la utilidad neta aumentó 5.5% a 2 mil 970 mdd



INGRESOS PUBLICITARIOS

El número de clic pagos por parte de los consumidores en sus avisos se viene incrementando. Sin embargo, el precio promedio de los avisos viene cayendo. es decir, el coste por clic (CPC) en los anuncio cada vez es menos rentable.

Google parece haber encontrado recambio a su fuente principal de generación de ingresos desde que el buscador salió a bolsa hace diez años. La publicidad contextual (Adsense/Adwords, Doubleclick…) en búsquedas no crece tanto como solía. Incluso decrece. Sin embargo, ha encontrado en Youtube (red social de vídeo) y Google Play (tienda de aplicaciones y contenidos de Android) dos plataformas con más de 1.000 millones de usuarios que está rentabilizando a mayor velocidad. El impacto de Motorola es todavia de pérdidas

Del conjunto de las ventas, el 90% es publicidad bien a través de sitios propios (Google sites) o de su red asociados (network).  El 10% restante corresponde básicamente a su tienda de aplicaciones y contenidos Google Play, accesible desde más de 1.000 millones de dispositivos Android. Es la partida que ahora viene a denominar como ‘otros ingresos’ tras la salida de Motorola, la filial malvendida a Lenovo

 Google ya ha pagado ( acumulado)  a los desarrolladores de apps 5.000 millones de dólares, más que lo destina a los editores en forma de publicidad. 


Los ‘pagos por clic’ en su red externa cayeron,  por eso Google está engordando la cifras de ‘pago por clics’ con servicios ‘nuevos’ o implementados recientemente como Trueview y Admob en Youtube, Google Maps o Google Finance, según una presentación de la compañía.

Youtube, con mas 1.000 millones de usuarios, está en el centro. Según la consultora eMarketer, situó ingresos por encima de los 5.000 millones de dólares para 2014 con crecimientos de más del 50%. Google ha encontrado con su plataforma de vídeo el favor de las grandes cuentas de publicidad de las multinacionales, una publicidad más tradicional y menos automatizada.

Según eMarketer, Google en el 2014 tuvo  más de un tercio de todo el dinero gastado en publicidad en Internet, por encima de Facebook que se llevó sólo un 8% de este mercado.



COTIZACION BURSATIL

Luego de cumplir 16 años, Google que  fundada el 4 de septiembre de 1998 por Larry Page y Sergey Brin, tiene un valor de capitalización es de 390,913 millones de dólares.




I+D  de GOOGLE
Google invierte montos mayores en I+D que importantes lideres tecnológicos



GOOGLE PLAY
 Cada día millones de aplicaciones son descargadas a través de Google Play gracias a los más de 1.000 millones de usuarios activos que cuenta actualmente el sistema operativo Android, algo muy bueno para el ecosistema y los desarrolladores.

Google Play fortaleció su liderazgo en 2014 al acumular casi 60 % más de descargas de aplicaciones que App Store. Sin embargo, la tienda virtual de Apple generó alrededor de 70% más ingresos que Google. .

Los países del BRIC (Brasil, Rusia, India y China) mostraron el mayor potencial de crecimiento, al ser Estados Unidos y Brasil los países con más descargas desde Google Play, mientras que en ingresos por apps en iOS lideran USA, Japón y China.

Los ingresos combinados de los cuatro países del BRIC aumentó 120% en 2014. A nivel mundial, la aplicación más descargada el año pasado fue Facebook Messenger, seguida de Facebook, WhatsApp, Instagram, Skype, Clean Master, Viber, Line, Twitter y Snapchat, es decir, aplicaciones de redes sociales.



Ya son bastantes las aplicaciones que han superado las barreras de los 500 millones y los 1.000 millones de descargas. Hay que tener en cuenta que muchas han logrado millones de descargas al venir de serie instaladas en muchos dispositivos.

Más de 1.000 millones de descargas
Gmail
Servicios de Google Play
Maps
YouTube
Facebook

Más de 500 millones de descargas
Síntesis de voz de Google
Google Play Books
Hangouts
Google Play Music
Street View en Google Maps
Google
Google+
Navegador Chrome
Facebook Messenger
WhatsApp

CHROMECAST
El dispositivo de Google para realizar streaming de contenidos en la TV lanzado hace más de 1 año se vende desde Nov 2014 en México, luego de venderse en Brasil en latinoamerica y ahora con presencia en más de 20 países. . El dispositivo se comercializa a 50 dólares, un precio superior al establecido para EEUU (US$ 35).
 Lo que hace Chromecast es traer el contenido que está en la nube al televisor. A través de Chromecast puedes reproducir películas, música, videojuegos y hasta Google Maps en el televisor.
Su llegada a México, se da para aprovechar un mercado de 100 millones de usuarios de móviles y 27 millones de personas que tienen smartphones.
Con la forma y el tamaño de un pen drive, el Chromecast es un dongle  que se conecta a la TV mediante el puerto HDMI, llevándole internet al televisor y conectándolo de manera inmediata con cualquier dispositivo, sin importar su sistema operativo.  Compatible con Google Play, YouTube, Netflix y Chrome, entre otras
El hecho de tener abierto desde abril su SDK (Software Development Kit), en tanto, asegura que quien quiera estar presente en el Chromecast lo pueda hacer.
 El Chromecast fue lanzado en EEUU a mediados del 2013, convirtiéndose en un éxito inmediato para la compañía gracias a su precio (US$ 35)  y a su facilidad de uso, permitiendo reproducir en la TV prácticamente cualquier contenido de dispositivos móviles y ordenadores.

CHROMEBIT
En Abril 2015 Google anunció el Chromebit, un pequeño dispositivo, del tamaño de un pendrive largo, que cuenta con Chrome OS, el sistema operativo basado en el navegador Chrome, que con tan solo enchufarlo a cualquier pantalla la convierte en una computadora.

El equipo está fabricado por Asus.  De manera similar al Chromecast,  el Chromebit convierte una pantalla en una PC, permitiendo a los usuarios utilizar Gmail, navegar la Web o abrir hojas de cálculo o de texto. Si se desea utilizar un teclado o un mouse, el Chromebit cuenta con un conector USB y Bluetooth.

El dispositivo se venderá a menos de US$ 100.

PROYECT FI  OMV DE GOOGLE

Google lanzó el 22 de abril 2015  Project Fi su operador móvil virtual en Estados Unidos.
El servicio permitirá a los usuarios pagar sólo por la cantidad de datos que utilizan cada mes, en lugar de comprar más de lo que necesitan en un plan pospago. La tarifa de Project Fi será de 20 dólares mensuales más 10 dólares por gigabyte de datos de uso.



 El servicio de Google trabajará en las redes de Sprint y T-Mobile. Inicialmente, sólo estará disponible en el Nexus 6 de Google, y los dispositivos cambiarían automáticamente entre las redes de Sprint y T-Mobile, según la red en la que tengan mayor señal. Se espera Project Fi utilice WiFi para enrutar llamadas telefónicas y datos.

Esto significa un experimento técnico para Google, pero también plantea una amenaza para los ingresos minoristas de los operadores de red. Según informes de prensa, Sprint lo ha previsto al insertar una cláusula en su acuerdo de venta mayorista que le da cierta protección si el MVNO  de Google tiene un gran éxito. Al parecer, el contrato se podría renegociar si se traspasan determinados umbrales, aunque no está claro si esto se relaciona con el tráfico o el volumen de suscriptores.


PLANES A FUTURO

Google tienes varios planes para enfrentear el futuro. Globos aerostáticos que ofrecen conexión a internet en zonas remotas, lentes de contacto para diabéticos, automóviles sin conductor, gafas inteligentes, drones e incluso inteligencia artificial cuántica delinean la innovación presente y futura de la empresa tecnológica que inició hace 16 años como buscador de internet y se conviritió en el más importante de la web.

Sin embargo, la visión futurista de Google no se queda en la competencia con otras empresas que están apostando a los dispositivos móviles inteligentes touch screen,  sino busca ir más allá de lo que estaba en la imaginación de los escritores de ciencia ficción, dejar a un lado los teclados y dar paso a los comandos de voz.

Google Fiber
Austin será la tercera región donde se ofrecerá Google Fiber, un servicio que brinda velocidades de Internet de 1 Gigabyte por segundo (Gbps), además de las ciudades estadounidenses de Kansas y Provo.

Google iniciará el despliegue en las zonas sur y sureste deAustin, en donde sentarán sus redes de fibra en más de 3 mil millas de cables subterráneos y en miles de postes de electricidad.

Un estudio realizado por The Wall Street Journal en seis de los barrios de bajos ingresos en Kansas, ciudad donde ya se encuentra la red de Google Fiber, encontró que sólo 10 % de los residentes suscritos al servicio de fibra de Google y 5% adicional tienen la versión más lenta.

Project Link: FO en el Africa

Una encuesta interna de 2012  encargado por Sony Pictures y Warner Bros., se encuestó a más de 2.000 personas de Kansas City (primera ciudad donde se instaló Google Fiber) de entre 13 y 54 años. En él se muestra que un 26% de los encuestados que no practicaban la piratería afirmaron que empezarían a descargar copias ilegales con Google Fiber. Esto supondría que un 18% adicional de los usuarios totales se convertirían en piratas, lo que se traduciría, según la industria, en unas pérdidas extra de más de 1.000 millones de dólares (más de 820 millones de euros).

Pero también  la encuesta revela que, con esta tecnología, un 39% de los encuestados usaría más los servicios de streaming de pago y un 34% aumentaría la compra y alquiler de películas online.

Conectividad con cable submarino a Latinoamerica

Google invertirá 400 millones de dólares junto a la brasileña Algar Telecom, la estatal uruguaya Antel y el operador internacional Angola Cables. para construir un cable submarino de fibra óptica entre Estados Unidos y Brasil para incrementar la calidad de conexión a Internet en la región

Esta obra, que entraría en operación a finales de 2016, aumentaría el ancho de banda en 64 terabits por segundo,para América Latina, donde la cifra de 300 millones de usuarios crece de forma acelerada.

La empresa TE Connectivity SubCom llevará adelante el proyecto, que unirá Boca Ratón en Florida con Santos y Fortaleza en Brasil mediante un cable de 10.556 kilómetros



Projecto Loon
En 2013 Google anunció el  "Project Loon", el cual pretendía llevar Internet a los lugares más inaccesibles del planeta mediante globos aerostáticos situados a 18.000 metros de altura.

Astro Teller, responsable del laboratorio Google X, afirmó que la meta es demostrar que se puede ofrecer acceso a través de una flota permantente de "Loop Ballons", un anillo formado de globos, volando en el hemisferio sur desde el 2015.

Los globos -que vuelan a 60.000 pies de altura y que pueden permanecer en el aire durante 100 días gracias a paneles solares- ya fueron probados en zonas de Estados Unidos, Nueva Zelanda y Brasil.

Los "Loon Ballons" proporcionarán señal inalámbrica utilizando el mismo estándar que la telefonía 4G LTE con velocidades de 22 Mbps en antenas fijas y 5 Mbps en terminales móviles.

Google aún no se encuentra lista para emprender la comercialización, incluso se ha reportado la caída globos en Argentina y Sudáfrica; sin embargo, Mike Cassidy, director del Proyecto Loon, dijo en una entrevista con Slate que planea vender sus servicios en dos años.

Los globos del Proyecto Loon miden unos 15 metros de diámetro y serán capaces de flotar en la estratósfera a una altura dos veces mayor que el estándar para los aviones y los globos meteorológicos, o sea, unos 20 kilómetros de altura.

La conectividad 4G LTE que ofrecerá la compañía será para clientes de Oceanía, América del Sur y Sudáfrica.



LA WEB FISICA
The Physical Web” : es un proyecto experimental en fase inicial y abierta,  de interés para los desarrolladores que buscan poner a prueba esta función

SIN APPS:  El funcionamiento de esta tecnología se basaría en la asignación de una dirección URL a cada objeto, de tal forma que los dispositivos móviles cercanos puedan recibir dichas URLs e interactuar con dichos objetos (paradas de autobús, máquinas de venta de refrescos, parquímetros, coches de alquiler, etc) sin necesidad de apps específicas.
Considerando que los dispositivos inteligentes aumentarán, por lo que suponer que cada nuevo dispositivo lanzado al mercado debe traer su propia app ha dejado de ser una expectativa realista. “Necesitamos un sistema que permita a cualquier persona interactuar con cualquier dispositivo en cualquier momento. No se trata de sustituir las aplicaciones nativas, sino de permitir la interacción cuando estas aplicaciones dejan de resultar prácticas”.

Internet de las Cosas: En cierta forma estaríamos ante una versión de iBeacons de Apple o como una alternativa sistemas centralizados de software para la gestión del Internet de las Cosas. Lo que diferencia la Web Física de ambas tecnologías es que ésta última sería una tecnología abierta y descentralizada, mediante la creación de un estándar web común del que cualquier dispositivo puede hacer uso para ofrecer una interacción, haciendo posible toda una nueva gama de servicios.

El documento de introducción ofrece detalles sobre cómo se gestionaría la privacidad del usuario: el método de difusión de las URLs consistiría en un bluetooth emitiendo desde cada baliza, lo que permitiría al móvil del usuario recopilar esa información sin conectarse a ningún dispositivo o servidor. De este modo, no podría ser trackeado hasta que no haga click en una de las URLs.




IoT y HOGAR INTELIGENTE 
El internet de las cosas es otro de los objetivos de Google. En el primer semestre del año, Google adquirió al fabricante de termostatos y detectores de humo, Nest Labs y anteriormente había dado a conocer su compromiso de compra de la empresa de robots Boston Dynamics.

Con Nest, los analistas anticipan toda una línea de productos del hogar conectados con Internet para facilitar las tareas domésticas y monitorear el comportamiento de sus usuarios.

En enero 2014 Google anunció la compra de Nest Labs, por 3,200 millones de dólares en efectivo, siendo la segunda compra más grande Google despues de Motorola Mobility por la cual pagó 12,000 millones US$.  Nest es famosa por la creación de termostatos y detecores de humo que se programan con smartphones ( Android y iOS)  vía conexión WiFi.

Nest Labs fue fundada por los ex-ingenieros de Apple ( Tony Fadell y Matt Rogers). Fadell fue el responsable del diseño del primer iPod en Apple , por tanto tiene un buen gusto en el diseño industrial demostrado también en Nest Labs

Google ya tuvo el intento de ingresar a la domótica u hogar inteligente con la creación de Android@Home pero no tuvo éxito

Busquedas por Voz
Desde 2009, Google trabaja en el desarrollo de un servicio para hacer búsquedas mediante la voz, ahora conocido como Google Search. El objetivo de esta tecnología sería mejorar la experiencia  de busquedas en los teléfonos móviles. La nueva versión de "Google Search" permite realizar búsquedas de voz en más de 50 idiomas.


Android Auto 
Ofrecerá una experiencia multimedia en nuestro auto, pero será un sistema cerrado, en el que los desarrolladores tan solo podrán modificar ciertos parámetros, pero muy controlados por Google. Sus creaciones no serán realmente apps sino que añadirán nuevas funciones a aplicaciones creadas por Google. Además, en materia de diseño solo podrán "rellenar espacios en blanco", es decir, Google hace el diseño de la interfaz y los desarrolladores pueden cambiar los colores, las acciones de los botones y el texto mostrado.
Al igual que sucede en Android Wear, Auto podrá conectar a las APIs de notificaciones y mostrarlas de una forma ordenada en la pantalla, para evitar que se pueda manchar la experiencia de uso.

Android Auto proporcionará una interfaz estándar diseñada para evitar las distracciones del conductor, y esto solo se puede controlar cerrando el sistema. Google ha tenido que diseñar Android Auto para que no sea una distracción, y así lo ha tenido que probar ante la Administración Nacional de Seguridad del Tráfico en las Carreteras. Por ello, la seguridad ha jugado un papel fundamental a la hora de concebir Auto, aunque  va a ser, junto a CarPlay de Apple, los artífices de una pequeña revolución en la manera de entender el entretenimiento en el coche.

Liberación de los SDK
En Junio 2014 Google liberó los SDK (Software Development Kit) de:
 Android Wear que permitirá sincronizar nuestras apps con las del smartwatch, crear un diseño adaptado a su superficie, aprovechar los distintos sensores, enviar datos entre los diversos dispositivos y hacer que tu app pueda ser utilizada mediante comandos de voz.
Android TV Preview, un adelanto del sistema operativo de entretenimiento de Google. Tendremos una interfaz para mostrar los catálogos, encontrar contenido in-app y sistemas de recomendación
Android Auto. El objetivo de estas herramientas es la de conseguir aplicaciones que no distraigan el conductor. Y para ello ofrecen una interfaz minimalista y controlable por voz.




Inteligencia Artificial Cuántica
Google anunció que el físico John Martinis, de la Universidad de California, se unirá a la empresa para emprender un proyecto con su equipo de Inteligencia Artificial Cuántica.

Mas información en El Androide libre


jueves, 23 de abril de 2015

LIBROS DIGITALES: Mercado latinoamericano y tecnologías

Las ventas de libros digitales en América Latina,  son en promedio menos del 1% del total, treparán al 10 ó el 15% en 2020, según el español Javier Celaya, director general para España y Latinoamérica de Bookwire.

 Celaya es creador del portal dosdoce.com, un observatorio sobre el uso de las nuevas tecnologías en el mundo editorial con once años de existencia, y responsable para los países que hablan en español de Bookwire,  empresa alemana que distribuye libros electrónicos a 600 librerías de todo el mundo.

Bookwire ha entendido el potencial para el libro electrónico que tiene América Latina, donde la gente lee pocos libros en papel pero casi todo el mundo tiene teléfono celular, y ya ha desembarcado en Brasil, México y ahora en Colombia, en este caso de la mano de un socio, Hipertexto.

En América Latina han aparecido pequeñas editoriales independientes "cien por cien digitales", que han apostado incluso a editar también en inglés para ampliar su mercado. Proliferan en los mayores productores hispanoamericanos de libros (Argentina, México y Colombia) y también aparecen en otros como Perú y Chile, donde ocupan el  15% que no dominan los dos grandes del mercado editorial en español, Planeta y Penguin Random House (antes Santillana), con un modelo de negocio, "perfectamente legítimo", que apunta fundamentalmente a lograr grandes cifras de ventas.

Para Celaya, ambos modelos deben coexistir y para ello es necesario que las administraciones públicas de América Latina apoyen a esas pequeñas editoriales y además entiendan que internet debe ser considerado un servicio público, como la salud o la educación.

Otra de las grandes ventajas del libro digital es su precio, estandarizado por Amazon desde su posición dominante en 7,99 euros y 9,99 dólares. También destaca su accesibilidad para personas con problemas de visión, debido a que se puede cambiar el tamaño y el tipo de letra.
 Las ventas de libros digitales en España están entre el 7 y el 10 %, en Alemania en el 15 % y en EEUU y el Reino Unido, en un 30 %.

Los que leen libros digitales en América Latina lo hacen mayoritariamente en teléfonos inteligentes, una tendencia generalizada en el mundo.

Un estudio de Pew Research revela que el perfil socioeconómico del lector de libros digitales en el mundo es una persona de 30 a 40 años, de poder adquisitivo alto y poseedora de tarjeta de crédito.

Según el Centro Regional para el Fomento del Libro en América Latina y el Caribe (Cerlalc) de la Unesco, la producción editorial latinoamericana, medida por el número de títulos con registro ISBN, fue en el primer semestre de 2014 un 4,8% menor a la de igual periodo de 2013, pero aumentó la participación del libro digital al registrarse 83.162 títulos con ISBN (Número Internacional Normalizado del Libro) en América Latina, de los cuales 16.933 fueron editados en formato digital (20,4% del total).

 

 ASPECTOS DEL MERCADO
 
El mercado de los libros digitales tiene un potencial de crecimiento increible.
Para entrar a este mercado es necesario conocer aspectos como:
    la forma de leer un ebook
    la forma de comprar un libro
    la forma de escribir un libro
    la forma de ganar dinero con un libro

El sector editorial se preocupa por la llegada  de competidores globales, y la complejidad del usuario sobre que dispositivo elegir y las dudas de los autores conocidos y los nuevos entrantes (aficionados y pequeños negocios) que perciben en el libro electrónico un formato muy bueno para llegar a su público y ofrecer valor.


DISPOSITIVOS DE LECTURA


Muchos intentan replicar el modelo de Apple con iPod (un aparato) / atunes ( tienda de consumibles).  Una compra inicial y unas compras periódicas de consumibles.

Lectores lideres: Kindle de Amazon, Nook de Barnes & Noble y Kobo, el reader “low-cost”



Las tabletas: impulsadas por el iPad entran directamente a competir con estos lectores de eBooks.
Los expertos dicen que Apple va liderar este segmento al menos en los proximos 2 a 3 años. El tiempo suficiente para que Apple desarrolle su solución propia Apple iBooks, para competir con Amazon.
Las tabletas suelen ser 2 a 3 veces más caras que los eReaders

Los smartphones:  Algunos usuarios muy móviles se están acostumbrando a leer en sus smartphones, también jovenes impulsados por la tecnología (Android), que están re-descubriendo el libro como una forma de ocio valida (lo perciben más como un juego).

La PC: Hoy el principal dispositivo de lectura de un ebook es el viejo PC. Frente a la escasez de los contenidos disponibles y los precios altos de los dispositivos de lectura, mucha gente ha decidido NO dar el salto aún, y no han comprado ni una tableta ni un lector de Ebooks.  Entre un 50% al 75% de los lectores de ebooks lo hacen en su PC.
    No hay una tendencia muy clara de que tipo de dispositivo terminará reinando para la lectura de libros electrónicos. Mas populares son la PC y eBook Readers. Les siguen tabletas y Smart Phones
    El tamaño de la pantalla impacta de forma directa la experiencia de lectura.

En EE.UU. nadie habla de dispositivos. Queda claro que el ebook se nutre de una estrategia multi-dispositivos y que hay que dejar el lector leer su ebook, donde y cómo prefiera hacerlo. Los ebooks de Amazon se pueden leer en el lector Kindle, en el PC/tabletas/Smartphones mediante la instalación de una aplicación. El sistema permite cierta sincronización entre los dispositivos, permitiendo asi al lector de cambiar de dispositivo sin perder por ejemplo la página donde lo habia dejado.

Google va un paso más alla con Google ebooks y apuesta por tener la librería del usuario en la nube y dejale comprar a donde le da la gana.


FORMATOS

    Hay 2 formatos dominantes, PDF y ePub
    El formato Pdf es más común en el segmento profesional
    El formato ePub es el formato elegido por las editoriales para el gran público (novelas).
    El formato especifico AWZ, para el Kindle de Amazon. Es muy relevante si piensas en las ventas, ya que Amazon se lleva cerca del 75% de las ventas en EE.UU. y UK.

Es más recomendable para escritores novatos sacar en un solo formato, y si el libro encuentra una buena respuesta del mercado, pues tratar de sacar otros formatos, para incrementar el “reach” del libro.

FACTORES CLAVES

Hay 3 factores clave:

    Disponibilidad de contenidos en español: En este caso, apenas existen 4000 ebooks en castellano frente al medio millón de UK o los 5 millones de EE.UU. Todo estás por hacer. La presencia de competidores globales es clave para impulsar un gran despertar en el mercado. A fecha de hoy, ni Amazon, Apple o Google está presente en el mercado de los libros en español

    Desarrollo de los dispositivos de lectura:  La penetración actual en EE.UU. es cercana a los 10%.

    Implementación de una política de precio agresiva: Es la clave del éxito del modelo de Amazon, precios por debajo de los 10 US $ para los libros gran público (novelas y similares)


EVOLUCION DE LOS DIARIOS




CREACION DE LIBROS

Bubbl.in es una plataforma cuyos creadores se definen a sí mismos como un servicio para crear libros del futuro, que aún se encuentra en desarrollo y que nos ofrecen un libro online e interactivo para que podamos ver de lo que son capaces. En dicho libro se explica todo lo que te pueda imaginar sobre el Sistema Solar, pero de una forma muy diferente a como hemos visto ahora y que nos permitirá aprender y divertirnos a partes iguales.

En cada página del libro hay un iframe y una gran cantidad de código que permiten que el resultado final sea extraordinario, y una de las grandes ventajas que nos ofrece este proyecto es que podremos leer el resultado final en forma de libro desde cualquier dispositivo (smarthpone, tablet u ordenador portátil).

El libro sólo el Sistema Solar tan sólo es una demostración de lo que se puede hacer gracias a Bubbl, y es totalmente gratuito para todos los usuarios. Sin embargo la idea final es que cualquier persona, con los conocimientos necesarios, pueda crear su libro interactivo y sacarlo a la venta.

miércoles, 15 de abril de 2015

SOFTWARE LIBRE: falacias expandidas

El software libre permite el fomento del desarrollo tecnológico y humano con el trabajo compartido (revisiones y ajustes en los que colaboran muchas personas)  y la posibilidad de acceder a ello fácilmente, pero el software libre también tiene sus detractores que argumentos que analizaremos:

CALIDAD:  “El software libre es de baja calidad porque lo toquetean demasiadas manos. Nada como los sistemas operativos y programas de las compañías serias”. Los desarrolladores de las empresas que proporcionan software privativo no tienen por qué ser mñas talentosos que aquellos programadores que han decidido centrar su actividad en el software libre con la misma formación y experiencia.
Además, en el desarrollo de software privativo, las mejoras y avances son menores y mucho más lentos: no es lo mismo facilitar el acceso ilimitado al software, que la dinámica de desarrollo se acelere de forma exponencial y nunca pare, como ocurre con el software libre, que permitir que lo manipule un número reducido de empleados, ocultándolo celosamente a la competencia, que se testee de forma generalizada cuando salga al mercado y que, pasado un tiempo, sólo esos mismos empleados decidan qué modificaciones llevar a cabo y cuáles no en la versión siguiente. Muchas cabezas desarrollan más y mejor que unas cuantas.

VALOR:  “El software libre es gratis y no genera movimiento económico”. No hay ninguna restricción en  que uno desarrolle sistemas, programas o aplicaciones de software libre y decida venderlos.Puede cobrar perfectamente por la distribución, los manuales de uso y el soporte. Lo único que ocurre es que todo el código desarrollado ha de ser público, al contrario que en el software privativo, del que solamente se publican archivos ejecutables.
    
 SEGURIDAD:  “El software libre no es apto para sistemas críticos porque no es seguro”.Que el código del software esté disponible para cualquiera que desee analizarlo y modificarlo no implica que los sistemas y programas que se desarrollen sean menos seguros, y se puede comprobar fácilmente.

COMPETENCIA:  “El software libre es la muerte para las pequeñas empresas desarrolladoras”. El 90% del software libre que se desarrolla en el mundo es hecho por encargo, es decir, por personas y empresas que viven de ello. Y esta tecnología no la podrían usar las grandes compañías si se pasaran a ella para eliminar a la pequeña competencia: no es lo mismo software libre que gratuito, y es lo gratuito lo que quizá podría barrer a los competidores.


 PATENTES: “Patentar códigos fuente modificados es posible por culpa del software libre”. La existencia de esta tecnología no tiene relación alguna con las características de las leyes que regulen las patentes de software y su laxitud o dureza y la posibilidad de vacíos o paraguas legales en determinada jurisdicción para prácticas nocivas.

 TECNOLOGIA:  “El software libre es malo para el desarrollo del mercado tecnológico”. Si hemos dicho que muchas cabezas desarrollan más y mejor que unas cuantas y que los programadores pueden vivir de ello, es obvio que el mercado se fortalecería con la comercialización extensiva de software libre.

 REGULACION:  “Las regulaciones legales en favor del uso de software libre en la Administración pública y los centros de enseñanza son injustas. La implantación de este software o el privativo debería decidirse en base a la libre competencia”. En primer lugar, la libre competencia funciona en las transacciones del sector privado, no en el ejercicio de las instituciones estatales, y dado que la Administración, si acaso, es el cliente que contrata los servicios tecnológicos, ya en libre competencia tiene todo el derecho a escoger en favor del software no privativo. Además, los intereses principales de la Administración pública son la eficiencia y la moderación en el uso presupuestario, por lo que le favorece más el software libre con el ahorro en licencias y demás.

Muchas de las personas que se autodenominan liberales en economía detestan las posibilidades del software libre porque apoyan los intentos de controlar el mercado tecnológico en beneficio del software privativo, incluso con falacias contra el software libre. Pero el auge de este último es imparable.


ANTECEDENTES

La Fundación para el software libre (FSF - Free Software Foundation) fue creada en octubre de 1985 por Richard Stallman  con el propósito de difundir este movimiento.


La FSF se dedica a eliminar las restricciones sobre la copia, redistribución, entendimiento, y modificación de programas de computadoras. Con este objeto, promociona el desarrollo y uso del software libre en todas las áreas de la computación, pero muy particularmente, ayudando a desarrollar el sistema operativo GNU.


La FSF elabora, mantiene y defiende la Licencia Pública General GNU (GNU GPL),

la licencia de software libre más utilizada, cuya última versión es la GPLv3 (2007). Aparte la FSF también es responsable de la |Licencia Pública General Reducida GNU (GNU LGPL) y la Licencia de documentación libre GNU (GNU iFDL).

    La FSF tiene recursos y voluntad para hacer cumplir las licencias que elabora. Pero solo puede presentar demandas, sobre software del cual posea derechos de autor. La fundación se enfrenta cada año a unas 50 violaciones de la GPL y siempre trata de evitar llegar a los tribunales.

Alojamiento de proyectos
    La FSF aloja proyectos de software libre en su sitio web Savannah. Ofrece una de interfaz web para el hosting y el mantenimiento de las páginas web de los proyectos, seguimiento de errores, CVS, FTP, y listas de correo. Hospeda más de 2.800 proyectos


AMERICA LATINA
La Fundación Software Libre América Latina (FSF América Latina - Free Software Foundation Latin America - FSFLA) es una organización ad hoc formada por personas individuales de la región, cuyo objetivo es promover y defender el uso y desarrollo de software libre, y el derecho de las personas a usar, estudiar, copiar, modificar y redistribuir software.

La organización es independiente de las otras fundaciones de software libre como la Free Software Foundation. En vez de estar en una estructura jerárquica, operan como organizaciones hermanas en una red. 








sábado, 4 de abril de 2015

Anillos de Fibra Optica de Latinoamerica. Plan de UNASUR

El estudio Expansión de infraestructura regional para la interconexión de tráfico de Internet en América Latina, auspiciada por CAF-Banco de Desarrollo de América Latina y elaborado por Raúl Katz, director de Estrategia de Negocios en el Instituto de Columbia, muestra que entre sólo 10 y 30 % del tráfico de Internet ocurre entre países de América Latina. El costo que tienen que pagar los países de la región por el tráfico de datos de Internet que cursan con otras regiones, principalmente con los IXP de Estados Unidos, asciende a mil 800 millones de dólares.

El estudio concluye con la necesidad de reducir el costo de tráfico de Internet que implica el acceso a contenidos internacionales e incluso regionales y traerlos de vuelta a América Latina mediante puntos de intercambio de Internet (IXP)  interconectados mediante cables submarinos. Los países con más puntos de interconexión de Interconexión (IXP) son Brasil (31), Argentina (11) y Chile (8).  La instalación de IXP en países de América Latina permitiría una mayor velocidad de conexión en la región, reducción de precios y una mayor penetración del servicio. Katz también aludió a la responsabilidad del Estado, al declarar el acceso a Internet como un derecho de la población, contribuir a eliminar barreras de licenciamiento en infraestructura y solicitar la obligatoriedad de interconexión entre redes.                                                                  

En América Latina ya existen esfuerzos por desplegar IXPs regionales: Bolivia (La Paz, Cochabamba y Santa Cruz), Costa Rica, México(Mérida). En Perú, el despliegue de un IXP está incluido en el proyecto de Red Dorsal de Fibra Óptica.

Actuamente entre el 75% a 85% del tráfico de internet de la Latinoamerica debe pasar por la ciudad de Miami en Estados Unidos. El Plan de UNASUR de establecer Anillos de fibra óptica en latinoamerica supondrá una mejora en la velocidad, la disponibilidad y la seguridad de los datos en los países miembros. Además, y debido a que los datos deberán recorrer menos kilómetros, se logrará reducir los costos de internet en la región, que actualmente llegan a triplicar los de Europa o Estados Unidos. El plan consiste en tender una red de más de 10 mil kilómetros de fibra óptica uniendo a los países miembros de UNASUR  Unión de Naciones Suramericanas integrada por 12 países.
Unión de Naciones Suramericanas
Unión de Naciones Suramericanas
Unión de Naciones Suramericanas


Una vez instalados los anillos la gestión estará a cargo de las empresas de telecomunicaciones estatales de cada país por donde pase. Se busca reducir también la dependencia que tienen los países de la región respecto de los países centrales para reforzar la soberanía de los datos nacionales.

El reciente caso de espionaje que fue expuesto por el ex espía informático Edward Snowden demostró cómo Estados Unidos accede a los datos que América Latina hace pasar por su territorio y alertó sobre la relevancia de la soberanía de los datos. Si bien es cierto que el espionaje cibernético no se hace en forma presencial,  el anillo de fibra óptica de UNASUR garantizaría un cambio desde el punto de vista de la incumbencia de ciertas leyes que se pueden aplicar a quien espíe datos dentro de un país. El otro riesgo que se busca evitar es el de la vulnerabilidad de la infraestructura de la red.

Dentro de UNASUR el Consejo Sudamericano de Infraestructura y Planeamiento (Cosiplan) realiza el seguimiento a este Plan.

Actuamente latinoamerica está unido básicamente por cables submarino, pero todos estos llegan a USA.

La compañia Telegeography, tiene un mapa interactivo donde están registrados todos los cables submarinos.  Además, explica de una forma didáctica y simple cómo es que están diseñados, cómo se instalan y su mantenimiento.


RED SUBACUATICA EN BRASIL

Brasil tiene en proyecto para desplegar una red de fibra óptica subacuática de 7.700 kilómetros de extensión en el estado de Amazonas, la mayor del planeta en su clase, reveló el portal Teletime.

El proyecto, conocido como Conexión Norte, fue desarrollado por el Centro Integrado de Telemática del Ejército, con la colaboración de la Red Nacional de Educación e Investigación (RPN), Telebras, Eletrobras, Padtec y agencias gubernamentales locales y nacionales.

“Es el programa más grande de fibra bajo el agua en el mundo”, señaló el general Santos Guerra a Ricardo Berzoini, titular del Ministerio de Comunicaciones (MC). “Ha sido diseñado siguiendo las disposiciones, objetivos e incentivos del Plan Nacional de Banda Ancha“, sostuvo.

La primera prueba piloto de la iniciativa se realizará durante marzo en el río Negro, donde se tenderán 12 kilómetros de fibra con el objetivo de brindar banda ancha en las ciudades amazónicas comprendidas entre Coari y Tefé. Esta etapa demandará una inversión de 15 millones de reales (5,8 millones de dólares).

Una vez completada, la Conexión Norte contará con seis vías ópticas diferentes, que abastecerán a unas siete millones de personas y 29 universidades del norte que, hasta ahora, solo acceden a Internet satelital. Asimismo, se planea construir una serie de centros de datos.



Proveedores USA de cloud podrían perder hasta 47 mil mdd por NSA

Los proveedores estadounidenses de equipos y servicios de nube podrían perder alrededor de 47,000 millones de dólares en ingresos durante los próximos tres años, debido a la pérdida de clientes de empresas no estadounidenses, luego de las filtraciones sobre las actividades de espionaje de la Agencia Nacional de Seguridad (NSA) y el programa PRISM.

Según Forrester Research, menos de un tercio de las empresas no estadounidenses han mudado sus datos con proveedores fuera de Estados Unidos, por lo que sugiere que el impacto que PRISM tuvo en el mercado de la nube ha sido exagerado.

La consultora señaló que la cantidad estimada de pérdidas fue mucho menor que los 180 mil millones de dólares esperados inicialmente. Poco después de la fuga de información en 2013, Forrester afirmó que las empresas seguirían con sus socios estadounidenses, situación que se ha mantenido hasta la fecha, pero estas compañías han optado por incrementar sus herramientas de encriptación y seguridad.



jueves, 2 de abril de 2015

PERU: Solo internet sin telefonía fja en Movistar

Muchos de los usuarios del Perú no saben que pueden contratar el servicio de internet sin contratar una línea telefónica fija.


(4) Sin costo adicional alguno, todos los CLIENTES que contraten estas velocidades sin servicio telefónico asociado, obtendrán por promoción el beneficio adicional de contar con la velocidad de transmisión determinada para cada velocidad durante el plazo de vigencia de la presente promoción siempre que cuenten con facilidades técnicas. Una vez vencido el plazo de la promoción el CLIENTE mantendrá la velocidad originalmente contratada

(5) Servicio prestado con tecnología COAXIAL-HFC. Disponible en la ciudad del Cusco, Arequipa y Lima, se encuentra sujeto a facilidades técnicas y cobertura

Los servicios de internet + telefonía fija se brindran por la red de pares trensados y con tecnología ADSL2+, mientras que el servicio de solo internet por la red HFC ( Hibrida Fibra Coaxial), disponible solo en algunas ciudades.

Pero lo diferencia de precios es tan baja, que muchos optan por el paquete con telefonía fija


ANTECEDENTES

En Feb. 2013 Osiptel anunció que el dúo de internet más telefonía fija de Telefónica no será obligatorio El Tribunal de Controversias del Organismo Supervisor de Inversión Privada en Telecomunicaciones (Osiptel) emitió un fallo que ordena a Telefónica del Perú que su Plan Dúo, que condiciona la prestación del servicio de Internet a la adquisición de su servicio de telefonía fija, en adelante no será obligatorio, sino opcional para los usuarios, reveló Gonzalo Ruiz, presidente del organismo regulador. Esta decisión la adoptó el citado tribunal, luego de investigar la aplicación del producto Dúo de Speedy (acceso a Internet fijo a través de la tecnología ADSL), más telefonía fija, entre los años 2001 al 2011, refirió Ruiz.
Como resultado de esa investigación, dicho tribunal determinó que la mencionada empresa incurrió en actos de abuso de posición de dominio, en la modalidad de ataduras (al obligar a la prestación de un servicio, condicionado a recibir otro a la vez), explicó.
La posición de abuso se da porque la compañía, que abarca el 99,7% del mercado de Internet fija, y el 90% del mercado de telefonía fija, con el mencionado plan, habría evitado que más usuarios accedieran a los servicios de telefonía fija de su competidor Telmex, dijo Ruiz.
 Agregó que el Tribunal de Controversias de Osiptel aplicó una multa de S/.1.5 millones a Telefónica, por considerar que se afectó con esta práctica las condiciones del servicio.

SMARTPHONES: Los mejores con cámaras 2015

Nuestros smartphones se han ido convirtiendo paulatinamente en el sustituto natural de la cámara digital. Salvo para auténticos amantes de la fotografía, el resto de mortales hacemos nuestras fotos con el móvil. Por tanto, a muchos les interesará saber qué smartphones hacen las mejores fotos

Una de las características que demandan los usarios de los smartphones es su capacidad para obtener fotos y videos de la mejor calidad. Ya existen en el mercado smartphone con una capacidad similar al de cámaras fotográficas profesionales.

Las características específicas que permiten indentificar estas capacidades son :
EL SENSOR: Es una matriz o cuadrícula de pequeñísimos dispositivos electrónicos sensibles a la luz (fotorreceptores, fotosensores, o celdas) y hay de 2 tipos: los CCD (Charge-Cuupled Device) y los CMOS (Complementary Metalm Oxide Semiconductor), también hay cariantes. Los CCD son caros, se calientan  y se ensucian con polvo porque se cargan electricamente. Los CMOS son mas baratos y se calientan menos, una de sus variantes son los BSI ( Black-Illuminated Sensor) que captura luz en en entornos con muy poca iluminación. El número de celdas sensibles a la luz coincide con la cantidad de píxeles que es valor de la resolución, expresada en Megapixeles (MP). Asimismo el sensor que tenga un tamaño mayor proporcionará mejor calidad de imagen que otro con la misma resolución, por ello el tamaño del sensor es importante.

LENTE OPTICO. La apertura  focal se establece con la fórmula
 f = (Distancia focal)/(diámetro de la abertura efectiva). la distancia focal promedio del ojo humano es 23mm y el diámetro de la abertura efectiva de la pupila cerrada ( 3 a 4 mm) y abierta (5 a 9mm). Por ello el valor f varia entre 23/3= 7.66  y 23/9=2.55. Una apertura focal variable que te permite un zoom óptico es mejor. Cuanto menor sea el número que acompaña a la "f" más apertura tiene la cámara.

Procesamiento de la imagen. El procesador de imagen se encarga de la reducción del ruido en la imagen, de suavizar píxeles, administrar los filtros de color en los fotodiodos, etc...

La mejor foto, al final, va a depender del trabajo conjunto de muchos componentes y de la habilidad del fotógrafo; y unas cámaras rendirán mejor en unas condiciones que otras.


Los 7 smartphones con mejores valores de estas características son los siguientes. 

1. LG G3
El LG G3 tiene una cámara de 13MP, flash dual LED y estabilizador óptico de imagen; el único junto el LG G2, que han conseguido incluir un estabilizador óptico en vez de un digital. A su vez, este modelo ha mejorado el procesamiento de la imagen, ya de por sí bueno en el LG G2, dando como resultado una nitidez de imagen y un rango dinámico que no alcanzan sus rivales

2. Samsung Galaxy S5
El S5 tiene una resolución de imagen de 16MP, un tamaño de sensor de los mejores (1/2.6") y un buen motor de procesamiento de la imagen.  Se pueden conseguir unos resultados impresionantes, pero es necesario cierto criterio para seleccionar los modos y opciones adecuadas. El apartado donde deja que desear es en la reproducción de los colores, donde el LG G3 muestra una imagen muy fiel, el Samsung tiende a exagerar los colores. Otra desventaja frente al LG es que no dispone de estabilizador de la imagen óptico.  La grabación de vídeo es excelente, graba en 4K y los resultados en Full HD a 60fps son de los mejores que se pueden encontrar

3. Samsung Galaxy Note 3
Al igual que el Note 3 produce unas imágenes nítidas y definidas, tanto en condiciones de baja luminosidad como a plena luz del día. El tamaño del sensor es menor (1/3.06") pero los resultados muy similares. Hay que decir, que debido a su mayor pantalla se puede apreciar mejor las escenas a fotografiar. El HDR es de los dos Samsung es de los que mejor funciona.

4. Sony Xperia Z2
Sus 20.7MP, sensor de 1/2.3" y apertura de f/2.0, no consiguen resultados a la altura de los LG o Samsung. Aquí entra de nuevo en juego, el procesamiento de la imagen. Seguramente en este apartado, el Xperia Z2 mejore con su renovación, el Sony Xperia Z3; potencial tiene de sobra.
En el apartado de vídeo no se queda corto, produce muy buenos vídeos a cualquier resolución, y tiene la opción de grabar 4K.

5. Nokia Lumia 1020
Con resolución que alcanza los 41MP (38MP efectivos). Tiene estabilizador óptico de la imagen y un sensor de 1/1.5". Los controles de los menús son especialmente fáciles e intuitivos, pero la representación del color y el rango dinámico dejan mucho que desear. Esto, unido a la extraña característica de poder sacarte una foto sin ninguna distorsión como una con mucha, le relegan al quinto puesto. No graba vídeo 4K y la resolución de 1080p se limita a 30fps.

6. Apple iPhone 5S
Con sólo 8MP el iPhone 5S es capaz de hacer unas fotos tan buenas. El rango dinámico y la fidelidad del color son excelentes y la grabación de vídeo, dejando a un lado el 4K, también. Esto hay que agradecérselo a un procesamiento de la imagen al más alto nivel. También hay que destacar la fluidez y velocidad con que toma las fotos, esto se debe a un sistema operativo que administra muy eficientemente la cámara

7. Huawei Ascend P7
Con 13MP y su apertura f/2.0. Al igual que el Oppo, no dan imágenes de la nitidez del Xperia o el Lumia, pero quedan muy naturales y la representación del color está muy conseguida. El vídeo no está a la altura de la calidad de las fotografías y sólo alcanza 1080p a 30fps


Es importante que los usuarios se fijen en estos valores antes de adquirir un smartphone si lo quieren con una buena cámara fotográfica.


FORMATOS DE IMAGENES

 Existen muchos tipos de archivos de imágenes disponibles, pero lo más comunes: el JPG (también conocido como JPEG), el PNG y el GIF. Todos tienen sus ventajas y desventajas, así que hay conocerlos mejor nos permitirá decidir cuál es el que necesitamos usar en diferentes escenarios.

La mayoría de los navegadores en Internet tienen la capacidad de mostrar estos tres tipos de imágenes sin ningún problema, algunos formatos funcionan mejor para ciertas ocasiones. Por ejemplo, los JPG se utilizan con frecuencia para imágenes que son realistas y que se ven bien aunque el tamaño del archivo sea muy bajo; los GIF, que tanto se usan hoy en día, muestran imágenes animadas; los PNG, por su parte, tienen la habilidad de mantener la calidad al máximo siempre y soportan transparencias.

 JPG: Fue desarrollado por el Joint Photographic Experts Group (JPEG). Para que el JPG tenga un tamaño reducido, el archivo comprime los datos de la imagen en bloques de píxeles “mosaico”. Esta comprensión es permanente. JPG esmás usado en Internet, pueden ser comprimidas hasta 100 veces

 GIF: GIF (Graphics Interchange Format), soporta  256 colores, y además soporta animaciones y transparencias. Esto no creará una distorsión de la imagen, como JPG, pero sí difuminará los colores bastante. Sin embargo,no se pierden líneas rectas como las del texto, como pasaría con un JPG. GIF se usa para crear imágenes animadas,  en un archivo que no es demasiado pesado y que no necesita un software adicional para ser reproducido (como es el caso de los vídeos).

PNG: PNG (Portable Network Graphics),  fue desarrollado como una alternativa al GIF. Este también soporta transparencias. A diferencia del GIF, soporta colores de 8-bits, y  24-bits, como JPG.
El PNG utiliza un algoritmo de compresión sin perdida, . El problema con PNG es que si se tiene una imagen con muchos colores y píxeles, obtendremos un archivo mucho más pesado que el JPG.



miércoles, 1 de abril de 2015

El Mercado Único Digital Europeo: Informe de Operadores (ETNO)

La Comisión Europea (CE) viene buscando el establecimiento de un mercado único digital europeo, (Digital Single Market) que permitiría mejores condiciones para los consumidores, así como beneficios para la industria como escalabilidad y alcance regional.

La asociación de Operadores de Redes de Telecomunicaciones Europeos (ETNO) presentó un nuevo documento en el cual establece los retos y los requerimientos para alcanzar el objetivo de un mercado único.

“En ETNO creemos que la industria de las telecomunicaciones es fundamental para acelerar la aplicación de una Sociedad Digital Europea, aprovechando su patrimonio, la experiencia y el conocimiento y servir como agente clave del cambio”.

El primer reto identificado por ETNO está relacionado con la necesidad de fortalecer las actuales redes de telecomunicaciones, encaminadas a incrementar la cobertura de la tecnología 4G, así como estar preparadas para el despliegue de redes 5G. “La inversión en mejores, más rápidas y penetrantes redes debe estar en el corazón de las nuevas políticas de la UE. Lo mismo se aplica para el acceso armonizado a los componentes fundamentales tales como el espectro, que es el alma de la revolución móvil”, señala el documento.

ETNO observa que el nuevo marco competitivo obliga a los operadores de telecomunicaciones a competir y colaborar con múltiples operadores en diferentes niveles y segmentos, donde la escala es un componente crucial. Aunque pide un nivel de juego justo entre los participantes, explica que ello no necesariamente implica más regulación, sino el replanteamiento del marco actual.

También llama la atención sobre la necesidad de capitalizar la “revolución digital” a través de fomentar la innovación y facilitar la adopción de nuevas tecnologías entre personas y negocios. “Políticas positivas se pueden poner en marcha para estimular la adopción de tecnologías más inteligentes a través de los sectores público y privado. Todo esto va a generar una sociedad más inteligente y eficiente de los recursos, la prestación de servicios de primer nivel a los ciudadanos, los consumidores y los gobiernos”, agrega

Ver informe completo

Miembros de ETNO