viernes, 30 de septiembre de 2016

ETHERNET: Las Pruebas Y.1564

Las redes Ethernet proporcionan hoy en día servicios sensibles y en tiempo real, estos servicios generan  varios tipos de tráfico que la red puede transportar Generalmente el tráfico de red se puede clasificar en 3 categorías: datos, tiempo real y alta prioridad. Cada tipo de tráfico es afectado de forma distinta por las características de red y tiene que ser conformado para cumplir con los objetivos
de rendimiento mínimos. Para asegurar la calidad de servicio (QoS), los proveedores tienen que configurar sus redes para definir como será priorizado el tráfico de la red. Esto se lleva a cabo asignando diferentes niveles de prioridad dependiendo del tipo de servicio y ajustando la configuración de la red con algoritmos de prioridad.
Las tramas ethernet se marcan en un campo específico para poder diferenciar el tráfico, y esto permite a los elementos de red diferenciar y discriminar el tráfico según la prioridad que tenga.


SLA (service-level agreement)

El acuerdo de nivel de servicio (SLA) es un contrato entre el proveedor de servicio y el cliente, que garantiza que se cumplirá un rendimiento mínimo para los servicios. Ejemplo de SLA






El tráfico del cliente se puede clasificar en 3 clases diferentes con su equivalencia de color: verde para tráfico garantizado, amarillo para tráfico en exceso y rojo para tráfico descartado.



El tráfico verde (CIR, committed information rate) se refiere al ancho de banda que está disponible
de forma garantizada siempre para un servicio específico y donde los KPIs (key performance indicators) se cumplen de forma garantizada.

El tráfico amarillo (EIR, excess information rate) se refiere al exceso de ancho de banda por encima
del CIR que puede estar disponible dependiendo del uso de la red, y donde los KPIs no están garantizados.

El tráfico rojo (descartado) se refiere al tráfico por encima del CIR o del CIR/EIR y que no puede ser transmitido sin descartar otros servicios. Es, por tanto, destruido



Los KPIs son características específicas de tráfico que indican el rendimiento mínimo de un tipo concreto de tráfico. Cuando el tráfico es verde, la red debe garantizar estos requerimientos mínimos para todo el tráfico. Los indicadores típicos KPI son: ancho de banda, retardo de tramas (latencia), pérdida de tramas y variación del retardo de tramas (jitter).



RFC 2544

La metodología de test que mas se usó para Ethernet fue la RFC2544. Esta serie de tests proporciona una metodología para medir el ancho de banda, la latencia de ida y vuelta, la pérdida de paquetes y las ráfagas. Se introdujo inicialmente como una metodología para testear dispositivos en laboratorio, pero como era el único estándar disponible, se usó también para testear servicios Ethernet en campo.

Aunque esta metodología proporciona parámetros clave para calificar la red, no es suficiente hoy en día para validar completamente los servicios Ethernet. Por ejemplo, RFC2544 no proporciona medidas de jitter, medidas QoS y niveles de servicio concurrentes. Además, el RFC2544 requiere
la realización de tests secuenciales para validar completamente el SLA, y esto puede llevar varias horas, cosa que consume tiempo y dinero a los operadores. Ahora existe un nuevo requerimiento, que es simular todos los tipos de servicios que funcionen en la red y que califiquen simultáneamente
todos los parámetros SLA para cada uno de estos servicios.

ITU Y.1564

Estas pruebas habilitan la completa validación de todos los parámetros SLA en un único test para optimizar la QoS. Al contrario que otras metodologías, permite multiservicios. De hecho, Y.1564 simula todos los tipos de servicio que corren en la red simultáneamente para calificar los parámetros clave del SLA para cado uno de estos servicios. También valida el mecanismo QoS provisionado en la red para priorizar los distintos tipos de servicios, dando lugar a una validación más exacta, y un despliegue y resolución de incidencias más rápido. Además, brinda resultados bidireccionales.

Y.1564 comprueba para cada servicio el nivel CIR (con el cumplimiento de los KPIs), el EIR, y el tráfico descartado.



Esto se realiza para cada uno de los servicios presentes en la red.




METODOLOGIA DE PRUEBA:
Consta de 3 fases:
Fase1: Prueba de configuración de servicios
Fase2: Prueba de perfomance de servicios
Fase3: Prueba de ráfagas


1. PRUEBAS DE CONFIGURACION DE SERVICIOS ( Prueba de Rampa)
Para cada servicio se utiliza la prueba de rampa alcanzando y excediendo gradualmente el CIR. Todos los indicadores KPIs son medidos y comparados con los umbrales establecidos.



2. PRUEBAS DE RENDIMIENTO DE SERVICIOS
Todos los servicios son generados a la vez a su CIR correspondiente, todos los indicadores son medidos para todos los servicios.



3. PRUEBAS DE RAFAGAS DE TRAFICO

Permite comprobar que los tipos de ráfagas esperadas puedan ser transmitidas con una pérdida mínima.
CBS:  Tamaño de ráfaga comprometida (Committed burst size): Número de bytes disponibles para las ráfagas transmitidas a tasas temporales por encima del CIR garantízado del SLA.

EBS: Tamaño de ráfaga en exceso (Excess burst size): Número de bytes asignados disponibles para las ráfagas enviadas a tasas temporales por encima del CIR + EIR.



• Se prueba individualmente en cada dirección para asegurar si la politica o mecanismo de conformación está configurado correctamente
• secuencia de descarga se puede repetir para el valor configurable por el usuario


TOPOLOGIAS DE PRUEBAS

1.Desde un extremo: Requiere un equipo de prueba en un extremo y en el otro se hace un bucle lógico con un equipo simple. Se obtiene la medida en solo sentido


2. Bidireccionales:  Requiere 2 equipos de pruebas. Se obtiene medidas en ambos sentidos




COMPARATIVO RFC2544 VS Y.1564


Comparación entre un test RFC2544 y un test Y.1564 para el mismo servicio.  Y.1564 es mucho más rápido.









jueves, 15 de septiembre de 2016

SD-WAN: Redes de área amplia definidas por software

El despliegue de la tecnología SD-WAN ( redes de área amplia definidas por software) está creciendo en el mercado empresarial. De acuerdo con el último estudio Kable Global ICT Customer Insight realizado a más de 2.600 empresas en todas las regiones, el 54,5% de las organizaciones ya utilizan las SD-WAN.

Se espera que su adopción alcance el 58,4% en el 2018. Esta demanda está siendo respondida tanto por proveedores establecidos como por start-ups que ofrecen soluciones y servicios competitivos para la empresa, ya sea directamente o a través de distribuidores de valor añadido (VAR) o proveedores de servicios gestionados.

Según  Mike Fratto, director de investigación de Current Analysis, "los beneficios que las empresas obtienen con ella son enormes y abordan una serie de puntos críticos a los que se enfrentan las organizaciones con la conectividad WAN en remoto y para sucursales distribuidas".

Tener una variedad de opciones es beneficioso para las compañías, ya que, por una parte, pueden satisfacer sus necesidades con las capacidades del producto a fin de encontrar aquella solución que más se ajuste a sus requerimientos y, por otra, obligan a los proveedores a añadir o mejorar las funcionalidades de sus ofertas. Sin embargo, ofrecer esta variedad de opciones hace que competir por los clientes empresariales y proveedores de servicios gestionados sea más difícil para los vendedores.

Las cosas se complican en tanto los proveedores de servicios gestionados están basando sus servicios SD-WAN administrados en uno o más productos comerciales y añaden valor mediante la simplificación del ciclo de vida operativo para la implementación del producto, la integración de múltiples servicios, y la reducción de costes para las empresas.

"Los proveedores de servicios gestionados son tan importantes como la empresa cliente final y los proveedores de SD-WAN lo saben. Estos están haciendo hincapié en la integración de sus API y SDK y trabajando activamente para integrarse con portales de proveedores de servicios, OSS, y software BSS", dijo Fratto.

Las evaluaciones de productos SD-WAN de Current Analysis indican que existe en el mercado un posicionamiento muy competitivo y reñido de estas soluciones. Así, en esta primera toma de contacto con este negocio figuran Cisco IWAN, Nuage Networks Virtualized Network Services, VeloCloud Networks Cloud-Delivered SD-WAN, Versa Networks, y Viptela Secure Extensible Network. Current Analysis añadirá 6 vendedores más en la segunda mitad del 2016. Todas las evaluaciones de productos se actualizan cada 6 meses.


ANTECEDENTES

Riverbed Technology,  especializada en mejorar el rendimiento de las aplicaciones, presentó en Junio 2016 Riverbed SteelConnect, una solución SD-WAN (software-defined wide area network) .
 
Se trata de aportar a las redes una solución de gestión centrada en los aplicativos gracias a SteelConnect, para responder a las problemáticas de las empresas ofreciendo soluciones que garantizan las necesidades en términos de rendimiento y de agilidad de las aplicaciones. SteelConnect es el primer producto del mercado que consigue unificar la conectividad de red y la orquestación del despliegue de aplicación a través de redes WAN híbridas, LANs remotas y redes cloud como AWS (ya disponible) y Microsoft Azure (más tarde durante el año).

La solución incluye una gama completa de gateways WAN securizados, switches LAN y puntos de acceso Wi-Fi gestionados de manera central desde una consola cloud con una interfaz de usuario gráfica e intuitiva. Gracias a esto, SteelConnect consigue simplificar y racionalizar el diseño, despliegue y gestión de las redes distribuidas, permitiendo a las organizaciones modernizar sus arquitecturas de red para disfrutar de los beneficios de la transformación digital.

viernes, 9 de septiembre de 2016

BATERIAS para Móviles - su evolución

Las baterias para los equipos móviles han tenido una gran evolución en aspectos como la capacidad de almacenamiento en cada vez mas reducidas dimensiones y peso, asi como en el precio por unidad de energía almacenada.



ANTECEDENTES


CONSUMO DE BATERIA

Para lograr una mayor duración o autonomía de batería existen 2 criterios:
- Intentar no hacer muchas cosas al mismo tiempo: dado que nuestros móviles están compuestos de un gran número de componentes y tecnologías que necesitan su cuota de batería,
- Maximizar el uso de características poco exigentes y minimizar el de las muy exigentes.

La CPU y la conectividad GSM y WiFi son las  culpables de la baja autonomía de las baterías
 Es evidente que al jugar a juegos exigentes la CPU y la GPU agotarán más rápidamente la batería del móvil, pero también lo es el hecho de que tener permanentemente activada la conectividad WiFi si no la vamos a usar, porque los chips  necesitaban 1,4260W al escanear redes disponibles y tan solo 0,89W al hacer transmisión de datos. Si estamos conectados a la WiFi pero sin transmitir, el consumo baja a los 0,256W, lo que no es nada despreciable teniendo en cuenta que no la estamos usando.

Enviar datos consume más que recibirlos. En redes EDGE y WiFi 802.11g quedó demostrado que la eficiencia energética mejora más en la recepción que el envío en este dispositivo. El consumo energético de Bluetooth es "muy bajo",  pero  ZigBee era ultraeficiente y  podría combinarse con WiFi para sustituir esas conexiones a la hora de escanear redes disponibles por ejemplo.

La eficiencia energética de las tecnologías de conexión a redes móviles: LTE y sus iteraciones es más eficiente que anteriores soluciones, aunque eso depende también de factores como la banda de frecuencias usada o de la cobertura 3G o 4G que exista en la zona en la que nos encontramos.



Redes para menor consumo de baterías

La pantalla y el procesador son dos de los componentes del celular que más batería consumen, pero hay un tercero: la conexión de radio a la red.  Los celulares se comunican constantemente con la red celular y WiFi. Este diálogo permanente es el segundo mayor factor de consumo energético de los celulares.

Ciertas innovaciones recientes permiten mitigar la fuga de energía de los celulares. Algunos ejemplos son las pantallas de LED orgánico que no requieren de retro iluminación y los procesadores multi núcleo, capaces de activar y desactivar sus núcleos cuando es necesario.

Sin embargo, están siendo desarrolladas nuevas tecnologías que ayudarán a limitar el impacto de la conexión de radio en las baterías de los celulares.

Rastreo envolvente
El gran consumo de energía de LTE se explica en parte por su alta razón de potencia pico-promedio. La forma de onda de LTE se asemeja a la música clásica: largos momentos de calma marcados de crescendos. Y al igual que la música clásica, LTE necesita de un amplificador de alta potencia que capture esos picos y valles, en caso contrario la señal se distorsiona.
Los teléfonos celulares típicamente generan una amplia envolvente de potencia para cubrir los extremos de la forma de onda de LTE, pero por lo general la señal de LTE sólo necesita de una fracción de esa energía. Compañías como Nujira, Quantance y Qualcomm han desarrollado una tecnología llamada rastreo envolvente, que ajusta constantemente la energía amplificada del dispositivo a aquella que la señal LTE necesita en cada momento. El resultado es una conexión 4G mucho más eficiente en el plano energético, con ahorros de energía de hasta un 25%.

El rastreo envolvente está comenzando a ser incorporado en los smartphones, como las últimas generaciones de teléfonos Samsung Galaxy, iPhone y Nexus. Si bien no se trata de una funcionalidad a la que los fabricantes de estos dispositivos dediquen demasiada publicidad (no es fácil explicar en qué consiste), el rastreo envolvente tendrá un gran impacto.

Small Cells
La conexión de radio consume batería principalmente cuando está transmitiendo, enviando sus señales a la antena. Es decir que cuanto más lejos uno se encuentre de la torre de celular, mayor será el esfuerzo que el teléfono realice para que su señal sea escuchada. Para crear una red de celular eficiente en energía, lo ideal sería que cada dispositivo se encuentre a unos pasos de distancia de una torre.
Esto no es realmente posible en un mundo de grandes celdas montadas en edificios y altos mástiles, pero los operadores están comenzando a construir un nuevo tipo de red más densa utilizando small cells. Las small cells actúan igual que las macro celdas — transmiten las mismas señales y soportan la misma capacidad —pero cubren áreas mucho más pequeñas. Clusters de small cells podrían aportar enormes cantidades de capacidad a las redes.
Las small cells tienen además una ventaja adicional: acortan las distancias que las señales necesitan atravesar. Si en cada manzana de la ciudad hubiera una small cell, nuestros teléfonos enviarían sus señales a unos cien metros de distancia en lugar de a una torre situada a un kilómetro.

La tendencia es tener small cells distribuidas a lo largo y ancho de las ciudades. Por el momento, los operadores las están instalando en sitios estratégicos para incrementar la capacidad de red en áreas de mucha circulación, como plazas y centros comerciales. Sin embargo, ya se han efectuado algunos despliegues a gran escala. La compañía estadounidense Verizon, por ejemplo, está construyendo una red de 400 small cells en los corredores tecnológicos de San Francisco, donde la demanda de 4G es elevada. Al tiempo que el componente básico de las redes celulares disminuya en tamaño, aumentará la vida útil de las baterías.

EL COSTO DE LA RECARGA EN EL AUTO

John Bereisa, ingeniero estadounidense que trabajó para General Motors, se dio a la tarea de calcular el costo que representa cargar la batería del celular en el puerto USB del auto y su impacto en el medio ambiente.

Un smartphone conectado a Wi-Fi, necesita alrededor de 4.8 vatios de energía; para cada auto que rinda alrededor de 30 millas por galón de gasolina, representa una pérdida de 0.03 millas por galón. Si contamos que alrededor de 3,000 millones de millas se conducen al año en las carreteras de Estados Unidos, a una velocidad media de 30 millas por hora, el uso adicional de gasolina para el celular es de 100 millones de galones, esto es igual a 200 millones de dólares en costo. Tomando en cuenta que el galón cuesta dos dólares, se gasta alrededor de dos centavos por hora para cargar el dispositivo, es decir, un costo 33 veces mayor a cargarlo en casa.

 Con base en el cálculo de 0.03 millas por galón para cargar el teléfono, al año se emitirían casi 970 toneladas extra de dióxido de carbono en Estados Unidos.

El número de vehículos con puertos USB para carga de energía se elevó a 14.6 millones registrados el 2015 en Estados Unidos según datos de la consultora IHS.

jueves, 8 de septiembre de 2016

ANDROID TV: La plataforma MediaFirst TV de Ericsson

Ericsson se unió a Google para extender el alcance de su plataforma MediaFirst TV al ecosistema Android TV. De esta manera, la suite MediaFirst de Ericsson —una plataforma definida por software para la creación, preparación, administración y entrega de servicios de televisión paga— estará disponible en dispositivos con sistema operativo Android TV.

Con este acuerdo, los operadores de televisión paga podrán ofrecer servicios de TV, programación y aplicaciones en los televisores inteligentes y cajas con sistema operativo Android, sin necesidad de llevar a casa del cliente un set-top-box adicional.

La iniciativa facilitará las estrategias de los operadores en el camino hacia servicios de video bajo demanda (VoD). Para emprender este camino, los operadores deberán colaborar con compañías como Google, que con su sistema operativo Android ha logrado una buena parte del mercado de televisores inteligentes.

“Nuestro acuerdo con Google va a permitir a los operadores tomar ventaja de las posibilidades de monetización y oportunidades de asociación ofrecidas por Android TV, habilitándolos a entregar nuevas experiencias a sus audiencias gracias a la integración de servicios de TV paga con los servicios OTT y las aplicaciones de Android TV”, indicó Shiva Patibanda, jefe del negocio de plataformas de TV de Ericsson.

Una consultora señaló que 1 de cada 6 operadores de TV paga ha lanzado servicios OTT en América Latina, mientras que el 75 % tienen decodificadores IP y el 70 % introdujo servicios multipantalla.



SMART TV 2015

La Smart TV,  se usa no solo para ver los canales de TV libre o de paga, sino para  visualizar contenido online (internet), así como  películas de reproductores  o los videojuegos. Después de responder a esta pregunta podemos entrar en detalles.

Tipo de pantalla

Para una sala unas dimensiones aceptables pueden estar en torno a las 50 pulgadas, incluso menos si el sofá está a menos de tres metros. En cuanto a una tele de dormitorio, alrededor de las 32 pulgadas.

La mejor calidad de imagen la proporciona el LED. El plasma se dejará de producir y el LCD es de menor gama. Los costos de AMOLED como % del costo total se vienen reduciendo


Calidad de imagen

Según Cnet, el contraste real es uno de los aspectos más determinantes para desplegar una buena calidad de imagen. Esto se mide por la capacidad de un televisor para producir una sombra de negro profunda, diferenciada, mientras que la saturación del color, que depende de la anterior característica, también influye de forma considerable.
Para la resolución normalmente es suficiente con 1080p, 1080i o incluso 720p. Da igual sobre todo para ver la televisión (es difícil encontrar una emisión en alta definición real), para reproducir Blu-ray hay que subirse al carro de los 1080. Un televisor 4K hoy en día tiene muy poco contenido para ver.

Smart TV o accesorios

Hay que comparar si conviene comprar una smart TV con el componente ‘smart’ integrado. Samsung y LG, lo tienen integrado y ofrecen una variedad de aplicaciones de uso. Sin embargo, la madurez de este software y del entorno que lo contiene es escasa en comparación con la de otros terminales.
Existen numerosas opciones para convertir cualquier televisor en uno inteligente, mediante sticks para Android, conectar un módulo Raspberry Pi o un reproductor multimedia. En este caso hay que comparar si merece la pena o compensa adquirir un accesorio por separado. Si el televisor se  va a usar en videojuegos no tiene sentido una Smart TV, entre otras cosas porque las consolas de última generación incorporan su propio sistema con conexión a Internet.

Capacidad 3D

Actualmente ya existe un catálogo de películas amplio en 3D, aunque la oferta en televisión e incluso en videojuegos no acaba de despegar. Esto quiere decir que para aprovechar el efecto de las tres dimensiones será necesario comprar peliculas  en Blu-ray. Aparte de esto hay dos tipos de 3D: pasivo y activo. El primero es básicamente la tecnología que ofrecen los cines, mientras que el otro requiere unas gafas especiales  que se sincronizan con el televisor, con el fin de crear un efecto 3D de mayor resolución


MODELOS 2015

Hasta 2014 Samsung y LG han dominado el sector del Smart TV, el 2015 presentaron novedades:

Samsung Smart TV 2015: TIZEN
El Smart TV 2015 Tizen evoluciona el SmartTV de Samsung 2014. Samsung se acerca al webOS de LG eliminando las pantallas completas de iconos, lo que permite seguir viendo la TV mientras se consulta el SmartTV. También mejoran el touchpad. La velocidad de navegación ente aplicaciones es más rápida gracias a su Octa-Core (no en todos los modelos). En contenidos sigue siendo la número 1.  Vídeo Smart Tizen

LG Smart TV: webOS 2.0
El sistema Smart de LG 2014 ya era muy bueno pero demasiado lento. Este 2015 su aspecto se mantiene. Lo pero del webOs fué la velocidad que parecen haber mejorar hasta en un 60% este año 2015.  Vídeo Smart webOS

Panasonic Smart TV: My Home Screen 2.0 system
Lo mejor de My Home Screen es la posibilidad de personalización de la pantalla principal, el nuevo sistema se basa en Mozilla FireFox, y funciona bien con multitarea. Se asemeja mucho LG webOS y prometen que se ha mejorado el control por voz.
Vídeo Panasonic My Home Screen 2.0

Sony Smart TV: Android TV
Sony presenta su sistema de Smart TV 2015 basado en Android que permite acceder al Google Play, controles por voz, duplicar la pantalla del móvil Android, ... Casi todos los modelos inclyen el nuevo sistema de Smart TV. Android TV.  Vídeo Sony Android TV

domingo, 4 de septiembre de 2016

Design Thinking una herramienta estratégica

Design Thinking tuvo su punto de inflexión con el artículo de Tim Brown, CEO de IDEO, que hizo portada en la revista “Harvard Business Review” en Junio de 2008.

Bruce Nussbaum (Columnista de Businessweek) comentó: “El hecho de que Harvard Business Review le pidiera al CEO de IDEO que escribiera acerca del “Design Thinking” es tanto o más importante que lo que tenía que decir en el artículo. Este hecho, marca la legitimización de la innovación conducida por el diseño como un proceso de negocios y una herramienta estratégica importantísima para el mundo de la gestión”.

¿Qué es el Design Thinking? Pensar como diseñadores, es usar la forma en que los diseñadores abordan la solución de problemas. Es una manera de pensar integradamente que puede ser aplicada a todos los componentes del negocio.

“En vez de pedirle a los diseñadores que hagan que una idea ya desarrollada sea atractiva para los consumidores, las empresas están pidiendo a los diseñadores que creen ideas que conecten de mejor forma con las necesidades y deseos de los consumidores. El rol descrito inicialmente es “táctico”, y el resultado es una limitada creación de valor, el segundo es estratégico, y conduce a nuevas formas de crear valor” (Extracto del artículo de HBR)

El Design Thinking es un facilitador de la Innovación. Permite generar innovación y transformación de manera más rápida y más efectiva. Pero además es el proceso metodológico del Design Thinking el que nos permitirá definir en qué debemos innovar.

¿Cómo se diferencia de otras técnicas de solución de problemas y creación de estrategias?
Se diferencia al vincular el pensamiento creativo (lado derecho del cerebro) con el pensamiento analítico (lado izquierdo del cerebro), no prioriza un método de pensamiento por sobre el otro, sino que mezcla los aspectos positivos de ambos.

El CEO de P&G (Procter & Gamble) explica “Las escuelas de negocio tienden a focalizarse en el pensamiento inductivo (Basado en hechos directamente observables) y pensamiento deductivo (Lógica y análisis, típicamente basado en evidencia pasada). Las escuelas de diseño ponen el énfasis en el pensamiento abductivo, en imaginar lo que podría ser posible. Esta forma de pensar o de enfrentar la solución de problemas, nos ayuda a desafiar limitantes asumidas durante el quehacer diario y sumar ideas, en vez de descartarlas.

¿Cuáles son los componentes del proceso de “Design Thinking”?

El proceso de “Design Thinking” posee siete etapas: definir, investigar, idear, prototipar, seleccionar, implementar y aprender. En el marco de estos siete pasos, se pueden definir problemas, realizar las preguntas más adecuadas, se pueden crear más ideas, y se pueden seleccionar las mejores respuestas. Estos pasos no son lineales, pudiendo ocurrir simultáneamente y pueden ser repetiros en, lo que los diseñadores llamar, un “proceso iterativo”.



¿Dónde puede utilizarse?
Pensar en términos de diseño posee o crea valor más allá de los productos. Servicios, procesos, sistemas, experiencias, estrategias pueden beneficiarse del “Design Thinking”. El proceso ayuda a desarrollar grandes ideas de manera rápida y más eficiente ya sea en el desarrollo de nuevos productos o servicios, desarrollando mejores procesos internos, creando nuevas formas de comunicar a los clientes, o reinventando un modelo de negocios completo.


IDEO - DAVID KELEY

Ideo y su fundador David Kelley es el principal representante de lo que el Design Thinking es capaz de hacer y propone 4 pasos que se explicará a través de un ejemplo:

Hipótesis: Los carritos de compras de los super mercados pueden evolucionar para ser mas práctico, seguros y amigables?

Observación: El equipo por completo va al super mercado y observa. Dicho equipo no está compuesto por perfiles similares sino absolutamente heterogéneos: pscicólogos, marketeros, abogado, historiador etc. No hay jerarquías todos son iguales pero si un líder de grupo que no es el jefe ojo sino que tiene mejores capacidades de manejar grupos. El objetivo es ver a la gente en la cancha y no contratar a alguien para que te cuente lo que la gente hace en la cancha o lo que es peor que responda las preguntas que tú mismo haces, para validar lo que tú ya piensas. La observación propone que nada este preconcebido.Pero hay un ingrediente importante, la observación no supone observar al promedio, a lo que hacen todos, propone fijarte también en los extremos .en el ejemplo del super mercado aquel que es un experto comprador como aquella señora que con las justas puede arrastrar el carrito.De los extremos saldrás de tirar a la mesa solo soluciones promedio.

Brain Storming: aquí toda idea cuenta, sobre todo las malas, porque sin malas ideas no saldrían las buenas. Olvídate de pincharle el globo a tu compañero, todo idea vale, construye sobre la idea del otro, en vez de decir NO PORQUE, di SI Y ADEMAS así que parezca una roca.

Prototipo: Elabora una muestra de tu resultado final y testealo con tu audiencia. no te frustres porque aunque suene contradictorio tus clientes mas fieles, detestan que les cambies las cosas así sea para su bien. sino acuérdate del primer Ipod que deshicieron en criticas los APPLE lover y a las 2 semanas fue récord de ventas.

Genera un caos ordenado en tu empresa y con ello una revolución