martes, 31 de enero de 2017

TECNOLOGÍA & NEGOCIOS PROGRAMA DEL 30 DE ENERO 2017

ENTREVISTA CON CHRISTIAN MARCIAL, CEO DE SMART SOLUTIONS TECHONOLOGY, Y CON MOISÉS ALEXANDER SALAZAR VILA, CREADOR DE LA APP REACH
ENTREVISTA CON MILAGROS SÁENZ Y STELLA SANTIVÁÑEZ, AUTORAS DEL LIBRO "SER MADRE Y SUS DILEMAS"
ENTREVISTA CON GUILLERMO ALE (ARG) DIRECTOR DE TEATRO Y RAFAEL ZEGARRA LOZA, GERENTE DE CONFEGRAF

lunes, 30 de enero de 2017

TELEFÓNICA DEL PERÚ RECIBE RECONOCIMIENTO DEL NAP PERÚ

Telefónica del Perú ha sido reconocida por el Foro Mundial de Implementación IPv6 y la Asociación Nacional de Proveedores de Internet (NAP Perú) durante la premiación “IPv6 Líder Mundial 2016”, recibiendo el galardón Jim Baum por ser el operador con mayor tráfico IPv6 en Perú e impulsar al país a ser uno de los más avanzados en esta materia en el mundo, colocándose como el N° 1 en América Latina y el N° 9 a nivel global.

La distinción fue recibida por Dennis Fernández, Vicepresidente de Estrategia, Regulación, Mayorista y Transformación de Telefónica del Perú, quien resaltó que “con este avance nuestro país se convierte en un ejemplo seguir creciendo en Internet y fomentar innovaciones tecnológicas”. En la premiación participaron Rosa María Delgado, Presidente del IPv6 Fórum Perú; Carlos Valdez, Vice Ministro de Tecnología de la Información y Comunicación del MTC; e Iván Chumo, Presidente de la Asociación Nacional de Proveedores de Internet (NAP Perú).

Acerca de Telefónica

Telefónica es una de las mayores compañías de telecomunicaciones del mundo. Está presente en 20 países y cuenta con más de 341 millones de clientes a nivel mundial. Se apoya en las mejores redes fijas, móviles y de banda ancha, así como en una oferta innovadora de servicios digitales, para ser una ‘Onlife Telco’, una compañía que impulse las conexiones de la vida para que las personas elijan un mundo de posibilidades infinitas.

Telefónica ha cumplido 20 años creciendo junto con el Perú, opera comercialmente bajo la marca Movistar y tiene más de 22 millones de accesos. El Grupo Telefónica, desde que inició sus operaciones en el Perú, ha invertido más de S/. 28.000 millones en infraestructura de telecomunicaciones para unir con más comunicación a los peruanos y ha pagado más de S/. 16.400 millones en Impuesto a la Renta e IGV, siendo uno de los principales contribuyentes del país.


A partir de iniciativas como Fundación Telefónica, Wayra, ConectaRSE para Crecer, Juntos para Transformar, Somos Grau, Recíclame, entre otras, y proyectos de ampliación de cobertura como Banda Ancha Satelital, Fibra Óptica de los Andes, el despliegue de la red Movistar 4G LTE, entre otros; Telefónica impulsa la revolución digital en el país. www.telefonica.com.pe

El misterioso mundo sumergido de la Deep Web



Dicen que en la Internet Profunda, mejor conocida como Deep Web, reina el contenido vinculado al narcotráfico, contrabando de armas y otras actividades ilícitas. Por este motivo, también trasciende que quien se anima a navegar por este mundo virtual podría meterse en serios problemas.


Más allá de los mitos y misterios en torno de ella, se trata de un inmenso espacio virtual cuyas páginas no son detectadas por Google, Yahoo! o Bing, los buscadores tradicionales de la Web superficial en la que los usuarios navegamos todos los días. Quizá por este motivo, Google prefirió no participar de esta nota, por "no contar con voceros sobre el tema".


La Deep Web es un universo tan desconocido como enorme. De hecho, la Universidad de California, en Berkeley, Estados Unidos, estima que representa el 95 por ciento de la Web. Sin embargo, todos estamos en ella, sin darnos cuenta, cuando ingresamos en páginas privadas.


Por ejemplo, al chequear una cuenta bancaria, el correo electrónico u otros sistemas que piden nombre de usuario y contraseña se está, efectivamente, navegando por la Deep Web, simplemente por el hecho de que esas páginas no son accesibles a los buscadores (excepto en casos en los que esos sitios hacen públicos sus contenidos). Pero, en rigor, hablamos de Web Profunda para referirnos a sitios, servicios, foros y bases de datos que los buscadores no indexan.

Aunque hay varias formas de acceder a ella, la más sencilla es a través de un programa llamado TOR (del inglés The Onion Router), que se descarga sin costo y se caracteriza por enmascarar la IP real así como la zona geográfica desde donde se conectan los usuarios. Este software está a cargo de TOR Project, una organización sin fines de lucro que recibió en 2016 un reconocimiento de la Free Software Foundation por permitir que millones de personas tengan libertad de acceso y expresión en Internet gracias a que el sistema preserva los datos personales.
Buceo de profundidad


"Ingresé dos veces a la Deep Web para ver qué había. Mi objetivo era entender su funcionamiento y evaluar si existe alguna regla de juego interna. Lo que descubrí es que allí, con un diseño muy ochentoso, hay foros sobre muchos temas que podrían ser tabú. Además, las personas se expresan sin tapujos, opinando cosas que no se atreverían a decir en las redes sociales convencionales como Facebook y Twitter", dice Fernando Tomeo, un abogado especialista en tecnología.

Michal Salat, director de Inteligencia de Amenazas de la compañía de seguridad informática Avast!, dice que la primera impresión que se obtiene cuando se la visita es que es más compleja de navegar y las direcciones son mucho más difíciles de recordar que en la Web superficial. La experiencia es similar a la que tenían los usuarios de Internet cuando estaba en sus albores. Incluso hay varios motores de búsqueda que arrojan algunos resultados más o menos relevantes, pero no son nada como Google o Bing. También hay un servicio llamado HiddenWiki, que categoriza algunos de los servicios", describe.
La mitad más 5

Un estudio realizado por el proveedor de datos Terbium Labs, llamado The truth about the Dark Web: Separating fact from fiction, concluyó que el 55% del contenido relevado en la Web Profunda es legal.

Terbium Labs observa, con agudeza, que el anonimato no significa criminalidad. "Entre los actores que predominan allí, los terroristas no cumplen un rol protagónico", sostiene el estudio.

En este sentido, Salat comenta que navegando por ella ha encontrado contenido legal (arte, libros, fotos y videos) que están censurados o prohibidos para ciertas personas debido a las regulaciones y restricciones gubernamentales.

El abogado e investigador en el área de privacidad y libertad de expresión de la Asociación por los Derechos Civiles (ADC), Leandro Ucciferri, no sólo ha buceado por la Deep Web en reiteradas oportunidades, sino que opina que hay muchos mitos sobre ella. "Tal vez por su nombre marketinero, el usuario típico cree que está llena de material prohibido. Sin embargo, cuando uno ingresa no está inmediatamente expuesto a él, sino que hay que buscarlo minuciosamente. Por eso es que no resulta fácil para los policías e investigadores encontrar allí a los delincuentes", explica.

En segundo lugar, Ucciferri destaca que esta Web cumple una función muy importante, la de permitir a activistas disidentes radicados en países extremistas y con regímenes autoritarios comunicarse con el mundo exterior de manera anónima, algo que no pueden hacer en la Web superficial sin poner en riesgo su vida o su libertad.

Por el mismo motivo, en ella bucean muchos corresponsales de guerra, hackers, investigadores de distintos ámbito, personas que quieran hacer denuncias de forma anónima y cualquier usuario que desee expresar lo que siente y opinar sin temor a ser condenado por el resto. Por caso, Julian Assange, el creador de los WikiLeaks, usó TOR para comunicarse por primera vez con los periodistas de The Guardian. Luego, empleó un método todavía más seguro: un pendrive.

"Recomiendo a los periodistas utilizarla para realizar sus trabajos y proteger la identidad de sus entrevistados", agrega Ucciferri.
Sin miedo, pero con cuidado

El ejecutivo de Avast! advierte que en la Deep Web hay código malicioso, aunque el antivirus convencional puede proteger, ya que el malware que circula por ahí es similar al utilizado fuera de ella.

Los entrevistados afirman que no hay que tener temor de ingresar a la Web Profunda, pero es cierto que hay que bucearla a consciencia, para no desembocar en páginas con contenido ilegal. "Además, hay muchas trampas, y uno puede encontrarse con estafadores o con la policía que realiza ciberpatrullajes para encontrar delincuentes", ejemplifica Ucciferri.

Es que allí hay agencias de inteligencia que trabajan para atrapar terroristas, asesinos profesionales y piratas informáticos, entre otros.

Como casos de investigaciones emblemáticas realizadas en la Deep Web está la de Anonymous, que pudo revelar la identidad de 200 pedófilos en 2011; el sitio Silk Road que, alojado en la Deep Web en 2001 para traficar drogas, fue cerrado en 2013 por el FBI, y la Operación Sin Fronteras, que desbarató en 2014 una red de pornografía infantil en 14 países de América latina y Europa.

Para Salat, la Internet Profunda "es como un barrio peligroso de la vida real, donde los criminales tienden a pasar el rato. Puede haber gente buena en el vecindario, pero hay una mayor probabilidad de que te involucres en actividades arriesgadas", describe.

"A pesar del anonimato yo me sentí vigilado, y es lógico que las autoridades gubernamentales realicen sus investigaciones criminales ahí, por eso yo no aconsejo ingresar en ella", sostiene Tomeo, que no piensa volver a la Deep Web ya que el contenido que encontró no le pareció interesante. Para él, su único -y no menor- punto positivo es que efectivamente sirve para que las personas se expresen con absoluta libertad.

A modo de consejo, Salat observa: "Al navegar por la Deep Web, hay que tener en cuenta que se trata de un lugar salvaje. Esto significa que no hay garantía de que lo que compre o descargue esté seguro o que realmente se entregue, ya que el número de fraudes y falsificaciones es muy alto".

viernes, 27 de enero de 2017

ESPEJO HOLOGRÁFICO DE SMART SOLUTIONS TECHNOLOGY

"Holomirror ó Espejo Holográfico. Este elemento totalmente disrruptivo y elegante (audiovisual), se puede acoplar a cualquier diseño y espacio. A su vez podemos instalar una modelo o marioneta para interacción en tiempo real", Christian Marcial, director y fundador de Smart Solutions Technology.

miércoles, 25 de enero de 2017

PROTAGONISTAS DE LA INNOVACIÓN EN EL PERÚ

Roberto de la Cruz, gerente general de AOC Perú.

Vladimir Vivar, gerente de Applying Consulting.

Ricardo Galindo, de la Feria Yo Constructor.


Marco Tiempo, músico italiano.

TECNOLOGÍA & NEGOCIOS PROGRAMA DEL 23 DE ENERO DE 2017

ENTREVISTA CON ROBERTO DE LA CRUZ, GERENTE GENERAL DE AOC PERÚ


ENTREVISTA CON VLADIMIR VIVAR DE APPLIYING CONSULTING ENTREVISTA CON RICARDO GALINDO DE LA FERIA YO CONSTRUCTOR ENTREVISTA CON EL MÚSICO ITALIANO MARCO TIEMPO

martes, 24 de enero de 2017

INTERBANK presentó su nueva web


Interbank presenta su nueva página web: Interbank.pe, una plataforma íntegramente diseñada pensando en el usuario. Con una experiencia de navegación personalizada, Interbank.pe es la única plataforma web que permite la preaprobación de créditos y tarjetas, así como el acceso a simuladores de crédito amigables para adquirir con facilidad y simpleza el producto financiero que el usuario necesite.

La nueva web de Interbank solo necesita el DNI del usuario para identificar los productos pre-aprobados a los que tiene acceso, la promoción que pueda interesarle u otros productos a su medida. La plataforma está diseñada para atender al usuario de manera rápida, facilitar una navegación sencilla y destacando lo más relevante para cada persona de acuerdo a las búsquedas realizadas en dicho espacio.

Esta nueva plataforma cuenta con un espacio para compartir con los usuarios alcances sobre manejo de sus finanzas personales, así como características y usos de productos, servicios o canales financieros.

Interbank.pe ha sido creada en base a los hábitos digitales de los peruanos y gracias a su sistema responsive se adapta a cualquier dispositivo: tablet, celular o computadora personal de manera segura, rápida y sencilla.

Acerca de Interbank

Interbank es una de las principales instituciones financieras del Perú. Está enfocado en brindar productos innovadores y un servicio conveniente y ágil a sus más de 2 millones de clientes.

El Banco Internacional del Perú se fundó el 1 de mayo de 1897, e inició sus operaciones el 17 del mismo mes con un Directorio presidido por el Sr. Elías Mujica. Su primer local estuvo ubicado en la calle Espaderos, hoy Jirón de la Unión.

En 1934 comenzó el proceso de descentralización administrativa, siendo Chiclayo y Arequipa las primeras agencias en abrirse, seguidas un año después por las de Piura y Sullana.

La política de expansión se intensificó de manera notable en 1942, adquiriendo una propiedad en la Plazuela de la Merced y otra en la calle Lescano, donde se construyó el edificio “Sede La Merced”, cuyos bellos acabados han llevado al Instituto Nacional de Cultura a catalogarlo como Monumento Histórico.

En el pasado, el accionariado del banco incluyó capitales vinculados a la agroindustria, como La Fabril S.A. y W.R. Grace Co. En la década de los setenta, el Chemical Bank de Nueva York participó en el accionariado y fue responsable de la gerencia del banco. En 1970, el Banco de la Nación adquiere el mayor porcentaje de las acciones del banco, convirtiéndose de esta forma en miembro de la Banca Asociada del país. En 1980 el banco pasó a llamarse Interbanc.

El 20 de julio de 1994 un grupo financiero liderado por el Dr. Carlos Rodríguez-Pastor Mendoza, e integrado por grandes inversionistas como Nicholas Brady (ex Secretario del Tesoro de los EEUU), entre otros, se convirtió en el principal accionista del banco al adquirir el 91% de las acciones disponibles.

En 1996 se decidió cambiar el nombre a Interbank, empezando una nueva forma de hacer banca en el Perú, y con el objetivo de convertir cada agencia en una auténtica tienda financiera en la que con solo ingresar, el cliente sintiera que accedía a un banco diferente, confiable y sólido. Un lugar donde podía encontrar productos y servicios financieros brindados con la asesoría necesaria y una atención especial, ágil, conveniente, cercana e innovadora.

La inauguración de la sede principal Torre Interbank, ubicada entre las avenidas Javier Prado y Paseo de la República, en el 2001, marca el inicio de una nueva era, con mejores servicios integrados y tecnología de avanzada.

En el año 2005 se implementaron las tiendas Money Market dentro de los locales de Supermercados Peruanos orientadas a brindar servicios bancarios en horarios extendidos de lunes a domingo de 9:00 a.m. a 9:00 p.m. Iniciativa sin precedentes en el sistema financiero nacional.

Desde inicios de 2007 y hasta fines de 2008, Interbank llevó a cabo un agresivo proceso de crecimiento que buscaba duplicar la red de distribución. De este modo, el número de tiendas de Interbank pasó de 111 a fines de 2006 a 207 al cierre de 2008. Igualmente, el número de cajeros pasó de 701 a 1,400 en el mismo período.

La expansión de Interbank incluyó, en el 2007, la apertura de la oficina de representación comercial del entonces Grupo Interbank en Shangai con la finalidad de contribuir a dinamizar el intercambio comercial con China. Ésta fue la primera oficina de una empresa peruana en el país asiático.

Producto del fuerte crecimiento y desempeño del banco, en el 2010 las tres principales clasificadoras de riesgo lo calificaron como una empresa con grado de inversión. Ello permitió realizar dos importantes emisiones de deuda en los mercados internacionales.

En marzo de 2012 Interbank continuó innovando su oferta internacional al inaugurar su Oficina de Representación Comercial en Sao Paulo, Brasil, el quinto socio comercial del Perú. Con este gran paso, Interbank busca asesorar tanto a empresarios peruanos como brasileños a concretar negocios exitosos e identificar oportunidades de inversión.

Hoy Interbank es una de las principales instituciones financieras del país enfocado en brindar productos innovadores y un servicio conveniente y ágil a más de 2 millones de clientes.

IBM anuncia 5 hitos científicos disruptivos para los próximos 5 años


En 1609, Galileo inventó el telescopio y vio nuestro cosmos en una forma completamente diferente. Probó la teoría de que tanto la Tierra como otros planetas en nuestro Sistema Solar, giran alrededor del Sol, lo que hasta ese momento había sido imposible de observar. IBM Research continúa ese trabajo a través de la búsqueda de nuevos instrumentos científicos –ya sean dispositivos físicos o herramientas de software de avanzada – diseñados para hacer que lo que es invisible en nuestro mundo sea visible, desde el nivel macroscópico hasta la nano-escala.

“La comunidad científica tiene una maravillosa tradición de crear instrumentos que nos ayuden a visualizar el mundo en formas totalmente nuevas. Por ejemplo, el microscopio nos ha ayudado a ver objetos que son demasiado pequeños para el ojo humano, y el termómetro nos ha ayudado a entender la temperatura de la Tierra y del cuerpo humano”, comentó Dario Gil, Vicepresidente de Ciencia y Soluciones de IBM Research. “Con los avances en inteligencia artificial y nanotecnología, apuntamos a inventar una nueva generación de instrumentos científicos, que harán que los complejos sistemas invisibles de nuestro mundo de hoy, se hagan visibles en los próximos 5 años.”

Por ejemplo, la innovación en esta área nos podría ayudar a mejorar dramáticamente la agricultura, aumentar la eficiencia energética, detectar contaminación nociva antes de que sea demasiado tarde, y prevenir el deterioro prematuro de la salud física y mental. El equipo global de científicos e investigadores de IBM está continuamente trayendo estas invenciones desde el ámbito de nuestros laboratorios hacia el mundo real.

Las predicciones 5 en 5 de IBM (IBM 5 in 5) están basadas en tendencias de Mercado y sociales, así como en tecnologías emergentes de los laboratorios de IBM Research en todo el mundo, que pueden hacer posibles estas transformaciones. Aquí están los 5 instrumentos científicos que harán lo invisible visible en los próximos 5 años:

Con la Inteligencia Artificial, nuestras palabras serán una ventana hacia nuestra salud mental

Hoy, 1 de cada 5 adultos en los Estados Unidos experimenta un afección de salud mental, ya sea neurológica, (Huntington, Alzheimer, Parkinson, etc.) o mental (depresión o psicosis), cada año, y aproximadamente la mitad de las personas con trastornos psiquiátricos severos no reciben tratamientos. Globalmente, el costo de tratar trastornos mentales es mayor que el costo de la diabetes, problemas respiratorios y cáncer, todos combinados. La carga económica de los trastornos mentales alcanza el billón de dólares por año, solamente en Estados Unidos.

Si el cerebro es una caja negra que no entendemos totalmente, entonces el habla es la clave para descifrarla. En 5 años, lo que decimos y escribimos será utilizado como indicador de nuestro bienestar de salud física y mental. Los patrones en nuestra habla y escritura serán analizados por nuevos sistemas cognitivos y proveerán signos reveladores de enfermedades mentales y neurológicas en estado temprano de desarrollo, lo que ayudará a los médicos y a los pacientes a prevenir, monitorear y hacer seguimiento de dichas enfermedades.

En IBM, los científicos están utilizando transcripciones y audios de entrevistas psiquiátricas, junto a técnicas de machine learning, para identificar patrones en el habla, para ayudar a los médicos clínicos a predecir y monitorear con precisión enfermedades como psicosis, esquizofrenia, manía y depresión. Hoy, solamente son necesarias 300 palabras para ayudar a los médicos clínicos a predecir la probabilidad de que una persona padezca psicosis.

En el futuro, técnicas similares podrían ser utilizadas para ayudar a los pacientes con Parkinson, Alzheimer, enfermedad de Huntington, trastorno de estrés postraumático, y hasta condiciones de comportamiento, como autismo y TDAH. La computación cognitiva puede analizar las palabras habladas o escritas del paciente, para buscar indicadores que se encuentran en el lenguaje, como significado, sintaxis y entonación. Combinar los resultados de estas mediciones con aquellas realizadas con wearable devices (dispositivos en accesorios personales) y con sistemas de imagen (resonancias magnéticas y encefalogramas), puede mostrarnos una imagen completa de la persona, para que los profesionales de la salud puedan identificar, entender y tratar la enfermedad subyacente.

Lo que en algún momento fueron signos invisibles, se convertirán en señales claras de probabilidad de que el paciente pueda entrar en cierto estado de salud mental, o cuán bien está funcionando un plan de tratamiento; complementando las visitas clínicas regulares con evaluaciones diarias desde la comodidad de sus casas.

La hiper-imagen y la Inteligencia Artificial nos darán visión de superhéroes

Más del 99.9 por ciento del espectro electromagnético no puede ser observado por el ojo humano. En los últimos 100 años, los científicos han construido instrumentos que pueden emitir y percibir energía en distintas longitudes de onda. Hoy en día confiamos en algunos de dichos instrumentos para tomar imágenes de nuestro cuerpo, ver la cavidad dentro de un diente, revisar nuestras maletas en el aeropuerto, o aterrizar un avión en la niebla. Sin embargo, estos instrumentos son increíblemente especializados y caros, y solamente ven a través de partes específicas del espectro electromagnético.

En 5 años, nuevos dispositivos de imagen que utilizarán hiper-imagen e Inteligencia Artificial nos ayudarán a ver ampliamente, más allá del dominio de la luz visible, a través de la combinación de múltiples bandas del espectro electromagnético, y así revelar información de valor o peligros potenciales, que de otro modo serían desconocidos o no perceptibles a la vista. Más importante, estos dispositivos serán portátiles, accesibles y asequibles, para que la visión de superhéroe sea parte de nuestras experiencias de todos los días.

Una visión de los fenómenos físicos invisibles o vagamente visibles que nos rodean podría ayudar a que las condiciones de la carretera y el tráfico sean más claras para los conductores y los automóviles auto-dirigidos. Por ejemplo, utilizando imágenes de onda milimétrica, una cámara y otros sensores, la tecnología de hiper-imagen podría ayudar a un auto a ver a través de la lluvia, detectar condiciones peligrosas y difíciles de ver como hielo en el pavimento, o decirnos si hay algún objeto en el camino, incluyendo la distancia y el tamaño.

La tecnología de la computación cognitiva razonará sobre esta data y reconocerá lo que podría ser una lata de basura, un ciervo cruzando la carretera, o un bache que podría resultar ser un neumático desinflado.

Incorporada en nuestros teléfonos, estas mismas tecnologías podrían tomar imágenes de nuestra comida para mostrar la información de valor nutricional, o si es sano para comerlo. Una hiper-imagen de una medicina o de un cheque puede decirnos si es fraudulento o no. Lo que alguna vez estuvo más allá de la percepción humana, podrá ser visto.

Hoy, los científicos de IBM están construyendo una plataforma de hiper-imagen compacta que “ve” a través de porciones separadas del espectro electromagnético, en una plataforma que potencialmente habilitará una gran cantidad de dispositivos y aplicaciones prácticas y asequibles.

Los macroscopios nos ayudarán a entender la complejidad de la Tierra en detalle infinito

Hoy, el mundo físico solo nos deja entrever nuestro complejo e interconectado ecosistema. Reunimos exabytes de datos –pero la mayoría están desorganizados. De hecho, un estimado del 80 por ciento del tiempo de un científico de datos es consumido depurando datos, en vez de analizando y entendiendo lo que dichos datos nos están tratando de decir.

Gracias al Internet de las Cosas, nuevas fuentes de datos se vierten de millones de objetos conectados – desde refrigeradores, lámparas y el monitor de ritmo cardíaco, hasta sensores remotos como drones, cámaras, satélites y matrices de telescopios. Hoy ya hay más de 6,000 millones de dispositivos conectados, generando decenas de exabytes de datos por mes, con un porcentaje de crecimiento de más del 30 por ciento por año. Luego de digitalizar exitosamente la información de transacciones de negocio y las interacciones sociales, estamos ahora en un proceso de digitalizar el mundo físico.

En 5 años, utilizaremos algoritmos y software de machine-learning para ayudarnos a organizar la información sobre el mundo físico, para ayudar a traer la vasta y compleja cantidad de datos reunidos por los miles de millones de dispositivos dentro del rango de nuestra visión y comprensión. A esto lo denominamos “macroscopio” – pero a diferencia del microscopio, que ve lo que es muy pequeño, o del telescopio que puede ver lo que está muy lejos, es un sistema de software y algoritmos que trae todos los datos complejos de la Tierra combinados, para analizarlos y entender su significado.

Agregando, organizando y analizando los datos del clima, condiciones del suelo, niveles del agua, y su relación con prácticas de riego, por ejemplo, una nueva generación de agricultores tendrá información que les ayudará a determinar las opciones correctas de cultivo, dónde plantarlas y cómo producir rendimientos óptimos mientras se conservan los preciosos suministros de agua.

En 2012, IBM Research comenzó a investigar este concepto en Gallo Winery, integrando riego, suelo, y datos del clima con imágenes satelitales y otros datos de sensores, para predecir la cantidad de riego específica para producir el rendimiento y calidad óptima de la uva. En el futuro, la tecnología macroscópica nos ayudará a escalar este concepto a cualquier parte del mundo.

Más allá de nuestro propio planeta, la tecnología macroscópica podrá manejar, por ejemplo, la complicada indexación y correlación de varias capas y volúmenes de datos recopiladas por telescopios, para predecir colisiones de asteroides entre ellos, y aprender más sobre su composición.

Los laboratorios médicos “on a chip” servirán como detectives de la salud para rastrear enfermedades a nano-escala

La detección temprana de las enfermedades es clave. En la mayor parte de los casos, entre más temprano es detectada la enfermedad, mayor es la probabilidad de que pueda ser curada o bien tratada. Sin embargo, las enfermedades como cáncer o Parkinson pueden ser difíciles de detectar – escondidas en nuestro cuerpo antes de que los síntomas comiencen a aparecer. La información sobre nuestro estado de salud puede ser extraída de pequeñas bio-partículas de fluidos corporales como la saliva, lágrimas, sangre, orina y sudor. Las técnicas científicas existentes enfrentan los desafíos de capturar y analizar estas bio-partículas, que son miles de veces más pequeñas que el diámetro de una hebra de cabello humano.

En los próximos 5 años, los nuevos laboratorios médicos on a chip servirán como detectives de nanotecnología en salud – rastreando pistas invisibles en nuestros fluidos corporales y haciéndonos saber inmediatamente si tenemos alguna razón por la cual consultar a un médico. El objetivo es reducir hasta en un solo chip de silicio todos los procesos necesarios para analizar una enfermedad, que normalmente se llevarían a cabo en un laboratorio de bioquímica a gran escala.

La tecnología lab-on-a-chip fundamentalmente podría ser empaquetada en un conveniente dispositivo de mano, para ayudar a las personas a medir rápida y regularmente la presencia de bio-marcadores que se encuentran en pequeñas cantidades de fluidos corporales, y enviar dicha información a través de la nube, desde la comodidad de su casa. Allí, podría ser combinada con otros datos de dispositivos habilitados por IoT, como monitores de sueño o relojes inteligentes, y analizarlos por sistemas de información de inteligencia artificial. Al tomarlos todos en su conjunto, el set de datos nos dará una visión profunda de nuestra salud, y nos alertará en caso de que haya señales de problemas, ayudándonos a frenar la enfermedad antes de que progrese.

En IBM Research, los científicos están desarrollando nanotecnología lab-on-a-chip que pueda separar y aislar bio-partículas en partes de 20 nanómetros de diámetro, una escala que nos da acceso al ADN, virus y exosomas. Esas partículas pueden ser analizadas a fin de revelar la presencia de potenciales enfermedades, aun cuando no hemos tenido síntomas.

Los sensores inteligentes detectarán la contaminación medioambiental a la velocidad de la luz

La mayor parte de los contaminantes no son visibles al ojo humano, hasta que sus efectos hacen imposible que los ignoremos. El metano, por ejemplo, es el componente primario del gas natural, considerado comúnmente como una fuente limpia de energía. Pero si el metano se escapa en el aire antes de ser utilizado, puede dañar la atmósfera de la Tierra. Se estima que el metano será el segundo mayor contribuidor del calentamiento global luego del dióxido de carbono (CO2).

En los Estados Unidos, las emisiones de gas y petróleo son las fuentes industriales de gas metano más grandes en la atmósfera. La Agencia de Protección Medioambiental de Estados Unidos (EPA) estima que en 2014, más de 9 millones de toneladas métricas de metano se infiltraron de los sistemas de gas natural. Si lo medimos como equivalente de CO2- equivale a más de 100 años-, corresponde a más gases de efecto invernadero que los emitidos por Estados Unidos en hierro y acero, cemento y las instalaciones de fabricación de aluminio; todos combinados.

En 5 años, nuevas y asequibles tecnologías sensoriales, desarrolladas cerca de los pozos de extracción de gas natural, de instalaciones de almacenamiento, y a lo largo de las cañerías de distribución; ayudarán a determinar con precisión y en tiempo real las pérdidas invisibles. Las redes de sensores de IoT conectadas de forma inalámbrica a la nube, proveerán monitoreo continuo de la vasta infraestructura de gas natural, permitiendo encontrar las pérdidas de gas en minutos, en lugar de semanas, reduciendo la contaminación, los residuos y la probabilidad de eventos catastróficos.

Los científicos de IBM están abordando esta visión, trabajando con los productores de gas natural como Southwestern Energy, para explorar el desarrollo de un sistema inteligente de monitoreo de metano, como parte del programa ARPA-E Methane Observation Networks with Innovative Technology to Obtain Reductions (MONITOR).

En el centro de IBM Research está la fotónica de silicio, una tecnología en evolución que transfiere datos a través de la luz, permitiendo la utilización de la computación literalmente a la velocidad de la luz. Estos chips podrían estar incorporados en una red de sensores en el suelo, en infraestructura, o hasta volar en drones autónomos, generando insights (información de inteligencia) que, cuando se combinan con datos del viento en tiempo real, con información satelital, y con otras fuentes históricas; pueden ser utilizados para crear modelos ambientales complejos a fin de detectar el origen y cantidad de contaminadores a medida que ocurren.

Mozilla propone salvar Internet


Mark Surman, Director Ejecutivo de la Fundación Mozilla, hizo el anuncio en el blog de la entidad, poniendo de relieve que para 2020 en el mundo habrá 5 mil millones de personas conectadas a Internet, pero que cabe preguntarse si ésta continuará siendo un recurso abierto y descentralizado.

En tal sentido, preocupa por ejemplo a Surman que Mark Zuckerberg, CEO de Facebook, aparezca en la portada de The Economist representado como un emperador romano: “¿Se está repartiendo Internet entre unos cuantos grandes imperios, monopolizando actividades diarias como las búsquedas, hablar con amigos o comprar? ¿Puede permanecer realmente abierta y descentralizada?”.

Una inquietud similar asalta a Surman al considerar la seguridad de la red: “De la misma manera, cuando leo acerca de los hackers que convierten millones de webcams y grabadoras de vídeo en un ejército de botnets, me pregunto si este preciado recurso público puede seguir siendo seguro y fiable. ¿Puede sobrevivir?”.

Los pronósticos para Internet de las Cosas, que incluirá 20.800 millones de dispositivos en 2020, recopilando y cotejando datos constantemente, colmado de sistemas autónomos e inteligencia artificial, no sólo reportarán beneficios, sino “también crearán un mundo donde ya no utilizaremos un sistema informático, sino que viviremos dentro de él”, apunta Surman.

Estos planteamientos, y otros similares, llevaron a Mozilla a lanzar su iniciativa “Informe de Salud de Internet”. El proyecto de código abierto busca documentar y explicar qué está ocurriendo con este valioso recurso público, y se basa en datos de múltiples fuentes.

“La versión inicial del informe desvela la salud de la Web en cinco aspectos que van desde temas muy vinculados a Mozilla, como la descentralización, la innovación abierta y la privacidad y seguridad online, hasta áreas novedosas como la inclusión digital y la alfabetización web. Hemos elegido centrarnos en estos asuntos porque todos ellos tienen una influencia social, técnica, política y económica en Internet. Estrechamente interrelacionados, estos temas (y las decisiones que tomamos sobre ellos) tienen un profundo impacto en la salud de Internet, para mejor o peor”, escribe Surman.

Estos son algunos de los hallazgos del informe:

· A pesar de los grandes avances en la adopción de Internet, el 58% de la población mundial no puede permitirse una conexión a Internet.
· El 52% de las webs están en inglés, a pesar de que solo el 25% de la población global entiende este idioma.
· La organización Creative Commons estima que hay ya 1.000 millones de obras online con licencia CC, que fomenta la reutilización de textos, imágenes y música.
· En Europa, las obsoletas leyes de derechos de autor hacen que compartir selfies realizados frente a ciertos lugares públicos, como la Torre Eiffel, sea técnicamente ilegal.

Mozilla ha elaborado un microsite con el informe.

jueves, 19 de enero de 2017

Maker Space FabLab de la Universidad Champagnat


Los pequeños ingenieros del Maker Space FabLab UMCH construyen sus printbot hechos con piezas impresas en 3D y los ponen a prueba. Aprendizaje STEAM de forma creativa y divertida con alumnos de primaria en la Universidad Marcelino Champagnat del Perú. (Vía Juan José Rosado).


Nueva tecnología permitirá a empresas crear sus propias redes “4G”


Un nuevo proyecto conjunto autodenominado "The Multefire Alliance" ha lanzado la versión 1.0 de una nueva tecnología de redes inalámbricas que podría convertirse en una alternativa, o incluso complemento, para la WiFi tradicional. La alianza está integrada por una serie de grandes compañías tecnológicas entre las que figuran Qualcomm, Intel, Ericsson, Nokia, Huawei y Cisco.

Según la especificación elaborada por la alianza, Multefire hace posible conectar porciones del espectro a la misma frecuencia que las redes WiFi, por ejemplo la banda de 5 kHz, que es utilizada por el estándar más común actual, 802.11ac.

Multefire incorpora un protocolo que impide un impacto negativo en las redes WiFi, a pesar de utilizar las mismas frecuencias. La razón de ello es que aplica un procedimiento denominado “Listen Before Talk” (LBT) – o “escucha antes de hablar”, que lleva al punto de acceso Multefire a cerciorarse de que la frecuencia del caso está disponible antes de comenzar a transmitir.

Mejor rendimiento y cobertura

En su descripción de la tecnología, la alianza Multefire asegura que empresas, e incluso consumidores, podrán fácilmente crear sus propias redes LTE internas. El documento identifica indistintamente a pequeñas y grandes empresas como potenciales usuarios, como asimismo los propietarios de, por ejemplo, instalaciones deportivas, centros comerciales, etc. La tecnología también podría ser atractiva para operadores móviles. Según Multefire Alliance, su tecnología proporcionará mayor capacidad y cobertura, aplicando a la vez los protocolos de seguridad incorporados en LTE.

Multefire utiliza las frecuencias de manera similar a WiFi, aunque por tratarse de LTE los procedimientos serían mucho más eficaces. Por ejemplo, la tecnología funciona en sectores con denso tráfico de vehículos motorizados e interferencias. Al estar diseñado para pequeñas células autónomas, su habilitación hace innecesaria la planificación o configuración del espectro. Tampoco es necesario contar con el mismo número de nodos que una red WiFi.

La velocidad, en tanto, estaría al mismo nivel que en el espectro de LTE, debido a que Multefire deberá compartir la capacidad total disponible con WiFi. La tecnología tiene la capacidad de proporcionar velocidades de hasta 400 Mbps en condiciones óptimas.

Por lo demás, la operación de Multefire hará necesario contar con dispositivos totalmente nuevos, que incluyen el soporte necesario. La alianza no informa sobre una hoja de ruta para la disponibilidad comercial de este hardware, pero deja entrever que las primeras pruebas de la tecnología comenzarán hacia fines del presente año.

En este video publicado en el canal de Qualcomm en YouTube, la empresa describe el funcionamiento de Multefire:

Google explica la seguridad de su infraestructura, que incluye hardware propio

Google ha publicado un extenso documento donde explica las 6 capas de seguridad que protegen su infraestructura. Entre otras cosas, revela que sus servidores y otros componentes de hardware contienen microprocesadores de seguridad marca Google.

Mientras que un gran número de empresas prefieren mantener en secreto la seguridad de sus sistemas, Google ha dado a conocer los procedimientos con que protege su infraestructura. Indudablemente, no revela detalles técnicos que podrían poner en riesgo sus sistemas o instalaciones, pero aporta una visión de conjunto sobre el nivel que deberían tener los sistemas corporativos que gestionan información.

La seguridad de la infraestructura de Google consiste de seis capas que cubren distintos niveles de su infraestructura: hardware, servicios, gestión de identidad, almacenamiento, comunicación vía Internet y seguridad de las operaciones. Estas capas impiden la intervención y manipulación de dispositivos y cuentas de sus empleados.

En su whitepaper, Google cubre un amplio espectro informativo, frecuentemente con referencias a información complementaria. El presente artículo resume los elementos principales que quizás no sean tan conocidos desde antes.

Google construye sus propios centros de datos a los que tienen acceso un número reducido de sus empleados. Con el fin de asegurar sus instalaciones contra el acceso no autorizado, la empresa aplica una combinación de medidas de seguridad, incluida la identificación biométrica, detectores de metales, cámaras, barreras físicas para vehículos, y sistemas basados en tecnología láser con el fin de detectar acceso físico no autorizado.

Durante años se ha sabido que Google utiliza servidores diseñados por sus propios ingenieros. En esta oportunidad, la empresa agrega que también utiliza sus propios microprocesadores, que incluyen componentes de seguridad integrados en servidores y equipos externos. Según Google, estos procesadores permiten a la empresa identificar y autenticar dispositivos legítimos de Google a nivel de hardware. Para asegurar el inicio correcto del software instalado en sus servidores, la empresa ha diseñado y fortalecido componentes como BIOS, kernel e imagen del sistema operativo. Todos estas piezas incorporan validación criptográfica, y son controladas cada vez que los componentes de hardware y software son actualizados.

Google no utiliza firewalls ni segmentación de redes como mecanismo básico de seguridad. Aunque en alguna medida recurre a la filtración de ingreso y egreso para impedir la falsificación de IP, el mecanismo fundamental se ejecuta a nivel de aplicaciones, con autenticación y autorización criptográfica. Este procedimiento es aplicado a todos los servicios que realizan RPC (Remote Procedure Call) hacia otros servicios.

De esa forma, el operador puede especificar exactamente qué servicios pueden comunicarse con otros servicios. Los técnicos que tienen acceso a estos servicios lo hacen validando individualmente su identidad. Este procedimiento también es utilizado para dar acceso segmentado al personal, dependiendo de la aplicación.

Aislamiento

Con el fin de proteger los servicios que interactúan dentro de un mismo servidor, Google utiliza varias técnicas de aislamiento que incluyen separación corriente de usuarios de Linux, sandboxes ejecutadas en el kernel y virtualización. La empresa aísla con especial dedicación los servicios que gestionan datos o código subido por los usuarios, como por ejemplo los servicios de nube pública como Google Compute Engine. Asimismo, algunos servicios especialmente críticos son ejecutados en hardware aislado.

La transferencia de los datos entre los distintos servicios es cifrada, junto con incorporar firma digital para proteger la privacidad y la integridad de los datos. El procedimiento busca además asegurar la transferencia de datos contra escuchas y manipulación externa.

Almacenamiento

Todos los datos subidos a los servidores de Google son cifrados. La empresa decidió ejecutar el proceso de cifrado a nivel de aplicaciones con el fin de aislar los datos de potenciales amenazas acechando en niveles inferiores; como por ejemplo firmware maligno instalado en los propios soportes de almacenamiento. Google aplica cifrado de hardware en discos duros y SSD. Los datos contenidos en unidades dadas de baja son eliminados mediante un proceso que consiste de varias etapas, incluyendo dos verificaciones independientes. Si no es posible realizar el el procedimiento completo en un dispositivo, este es físicamente destruido.

Borrado permanente

Normalmente, Google no borra los datos inmediatamente, lo que sea también se aplica a usuarios que cierran sus cuentas. En lugar de ello, los datos son etiquetados “preparados para borrado”. El tiempo que pasa antes que los datos sean eliminados definitivamente depende de las reglas aplicables al servicio específico. Google informa que la finalidad de este procedimiento es contar con una posibilidad de restablecer los datos que hayan sido borrados involuntariamente, al margen de que se trate de un procedimiento iniciado por el usuario, error de software u otros incidentes imprevistos.

El documento de Google incluye información sobre la protección de Internet pública, incluyendo sistemas de autenticación de usuarios y protecciones contra ataques DDoS. también se refiere a algunos de los procedimientos utilizados por la empresa para detectar vulnerabilidades en su propio software. La presentación incorpora además un extenso artículo sobre la forma en que asegura su plataforma Google Cloud.

Celulares: Huawei apunta a destronar a Samsung en Perú



En Huawei están decididos a destronar a su rival coreano, Samsung, y dejar el segundo lugar que -aseguran- ya alcanzaron en el mercado peruano. Así lo estableció Vicente Li, gerente país de la marca.

Según detalló durante el lanzamiento del modelo Mate 9, el año pasado cerraron con un crecimiento en ventas del 40% y con una participación del 10% en el segmento Premium, lo que les permitió convertirse en la segunda marca más importada en el país.

En los reportes preliminares al cierre de año Dominio Consultores ya habían reportado un 11% de participación del mercado total de móviles, poco más de cuatro puntos por debajo del líder.

Gabriela Cortés, gerente de marketing de Huawei, añadió que para lograr el liderazgo en el país están apostando tanto por reforzar su presencia en el segmento premium como por incrementar la satisfacción del cliente con la presencia de tiendas propias en donde se atenderán las consultas. Dichas tiendas serán, además, un punto de exhibición donde el público podrá experimentar los nuevos modelos introducidos al mercado.

En la actualidad Huawei cuenta ya con una tienda de servicio y exposición en Mega Plaza y, según Li, están planeando montar más de estos centros en la capital. Aun no está definido dónde será el nuevo local, pero al menos uno más estarían montando en lo que queda del año.

Cortés destacó que se ha avanzado bastante en el reconocimiento de la marca al lograr que el 94% de peruanos los identifique, sobre todo porque esta cifra es mayor a la media latinoamericana (78%). El siguiente paso será, enfatizó, volverla en favorita de un mayor volumen de personas.

Perspectivas 2017

Luego de revisar las cifras de cierre de 2016 Fernando Grados, director de Dominio Consultores, vaticinó que este año se seguirá creciendo, pero a una menor velocidad debido a un proceso natural de madurez del mercado. El mayor dinamismo, advirtió, estará entre los que migren de categorías básicas a smartphone y que en el caso de la marca Huawei se necesitaba que además de tener buenas prestaciones incluyeran una batería de mayor duración. 

GFK, por su parte, también recomendó en un reciente informe que las marcas se enfocaran en ofrecer un equipo que no pierda potencia (se ponga lento o falle) con el paso del tiempo. Los usuarios, dijeron, quieren buena calidad de fotos, velocidad para navegar por Internet y comunicaciones fluidas, pero sobre todo necesitan estar conectados todo el día y no lo pueden lograr sin una batería de alta duración y un buen procesador en el equipo. 

Vicente Li dijo que han estudiado las necesidades del consumidor local y está apuntando a cubrir dichos aspectos con los nuevos modelos. El Mate 9, aseguró, cuenta con una batería que dura más y se carga más rápido. Calculó que se mejora en alrededor de 50% la capacidad de carga de la batería, lo cual viene acompañado de un modelo de procesador propio (Kirin) y cámara dual optimizados. 

En relación a sus proyecciones en ventas, Li comentó que el crecimiento será de 30%, un poco menor a lo logrado el 2016, lo cual concuerda con la tendencia de menor dinamismo prevista por los analistas.

En relación a la cantidad de oferta que presentarán, no quiso adelantar detalles sobre los próximos equipos a lanzar, pero sí aseguró que se reforzará y ampliará la línea de wereables (accesorios para uso personal que se conectan a Internet). En esta oportunidad presentaron junto al Mate 9 al Huawei Fit, un reloj inteligente que mide el ritmo cardiaco durante la actividad física.

DESTACAN TRABAJO DE PUBLICISTAS PERUANOS A NIVEL INTERNACIONAL


(vía latinspots.com).- Los últimos años solo han traído grandes resultados y satisfacción a la oficina de McCann Lima. 2016 no fue la excepción, no solo por los grandes resultados obtenidos en festivales, como el reconocimiento de Mejor Agencia de Perú en El Ojo de Iberoamérica, sino por la consolidación y la integración de su equipo de trabajo, de donde salieron ideas funcionales, reales y, lo más importante, aplaudidas por el público. En entrevista con LatinSpots, los VP creativos de la agencia, Christian Caldwell y Mauricio Fernandez Maldonado, aseguran que su rendimiento durante 2016 los reta y motiva a seguir superándose. Además, hablan de sus proyectos para este año que inicia y analizan la creatividad a nivel regional.

-¿Cómo fue 2016 para la agencia?
Christian Caldwell (CC): -2016 fue un año muy acelerado para nosotros en el que se tuvo que trabajar en muchísimos proyectos de forma simultánea, y esto nos puso a prueba como equipo. Debíamos mantener una excelente devolución creativa en cada uno de los distintos proyectos que enfrentábamos y haberlo logrado fue, sin duda, gracias a que realmente trabajamos de forma integrada, como un sólo equipo, derribando ¨muros¨ entre las diferentes áreas (planning, cuentas creatividad, research).
Mauricio Fernandez Maldonado (MFM): -Un magnífico año en todo sentido. Consolidamos la relación con nuestros clientes, ganamos importantes pitch y generamos más de 130 reconocimientos en los más destacados festivales de publicidad y efectividad.

-¿Qué significa el gran desempeño que han tenido en los festivales?
MFM:- Significa que la apuesta que iniciamos años anteriores era la correcta, que tenemos un muy buen equipo en las diversas áreas de la agencia, que lo que hacemos cada día es entregar nuestro mejor talento con el objetivo de alcanzar los objetivos del cliente.
CC: -Se podría decir que iniciamos el ciclo de festivales de 2016 con el pie derecho. Empezando con los D&AD Awards pasando por los Webby s, para luego seguir sumando reconocimientos en España, Argentina; llegando a la prueba más dura en mitad del año con grandes esperanzas y seguridad. Ya estando en Cannes tuvimos la fortuna de abrazarnos como equipo para celebrar y ahí llego el sentimiento que con 2 leones y 10 finalistas iba a ser difícil que 2016 no cerrara excelentemente. Y ese sentimiento se hizo realidad cuando ganamos importantes pitchs en el segundo semestre y cerramos en El Ojo con el premio a Mejor Agencia de Perú. Al final de todo este “Rally”, lo más importante es que nuestras ideas fueron funcionales, reales y que sobretodo entendieron e interactuaron con el consumidor, y esta es la mejor recompensa, porque sin duda el mejor premio siempre va ser el aplauso de la gente.

-A nivel personal, ¿qué balance pueden hacer de este período?
CC: -2016 cerró mi segundo año en Perú, por lo que obviamente a nivel personal el haber contribuido a la consolidación de la agencia como una de las oficinas más hot de McCann a nivel mundial me llena de orgullo, pero a la vez hace que el reto de 2017 sea más grande. Sin embargo, la oficina de Lima tiene todas las cualidades para seguir dando de qué hablar. No sólo dentro de la red, sino a nivel regional y global como ejemplo de la creatividad Latina.
MFM: -Mi objetivo personal era no ser una casualidad, sino demostrar una constancia profesional. Este período para mi es motivador y a la misma vez retador. Tenemos un equipo multidisciplinario de lujo.

-¿Cómo fue el proceso creativo de los trabajos ganadores en El Ojo de Iberoamérica 2016?
MFM: -Cada uno tiene su propia historia. Pero todos nacen de pedidos reales con necesidades verdaderas. Cada proyecto fue tratado no solo con seriedad, sino desde una perspectiva innovadora.
CC: -Podría enumerar pasos e inventarme algún tipo de proceso o fórmula pero al final todo se resumen en un trabajo en equipo y de todo el talento de la agencia comprometida a dar la mejor devolución a cada uno de los problemas de nuestros clientes.

-¿Qué trabajos han realizado recientemente?,¿Qué nuevos clientes han ganado?
MFM y CC: -Seguimos trabajando bastante para Coca- Cola a nivel regional, de hecho fuimos la agencia a cargo de desarrollar toda la estrategia de verano para mercados como Argentina, Chile, Ecuador, Paraguay, Bolivia y obviamente Perú. También fuimos seleccionados para la campaña 2017 de las aguas embotelladas de Coca Cola para la región. Además estamos iniciando 2017 con proyectos muy interesantes para Sodimac, como también una mega producción para el reposicionamiento de la Cerveza Cusqueña.A nivel digital por nuestro desempeño en festivales en los cuales tuvimos un excelente performance en digital y mobile a inicios de este 2017 hemos sido invitados a varios pitch de marcas de Unilever como Dove, Shampoo Clear.

-¿Qué análisis puede hacer de la creatividad de la región en la actualidad?
MFM: Latinoamérica sigue siendo un lugar excitante para crear. Tenemos una forma de comunicar que a mi gusto es mucho más cálida y cercana. Quizás no tenemos todo el PPTO o PR de otras regiones, pero estamos llenos de sabor y costumbres dignos de envidia.
CC: Creo que la región cada vez muestra más trabajos que se alejan del enfoque duro publicitario. Para beneficio de toda la industria presentan plataformas y conceptos que llevan a las marcas a tener un rol más protagónico en la vida del consumidor, no solo desde el lado racional sino desde un punto de vista más emotivo y con el objetivo de darle una experiencia o historia que contar.


-¿Cómo afecta el contexto político, social y económico al trabajo diario?
MFM: -En época electoral, el Perú vivió un momento de gran polaridad e inestablidad que nos hizo pensar que podríamos vernos afectados. Sin embargo, pasada la tormenta seguimos viendo el panorama de forma positiva.
CC: -A diferencia otros países de Latinoamérica, Perú no ha dejado de marcar crecimiento en sus diferentes indices económicos por lo que esto es una gran ventaja para nuestra industria y favorece sin duda a tenerla en un entorno bastante competitivo, lo que nos exige estar siempre activos y con una actitud pro-activa.


-¿Cuáles son las metas de McCann Lima en este 2017?
CC: -En 2017 tenemos como objetivo seguir haciendo crecer el negocio digital que año tras año hemos ido consolidando, por eso estamos haciendo importantes contrataciones dentro de esta área tanto a nivel creativo como estratégico. Además, como menciona Mauricio no hay espacio para retroceder, por lo que la constancia es una prioridad.
MFM: -Constancia en toda la extensión de la palabra. Seguir consolidando nuestra relación y confianza con nuestros socios, seguir ofreciéndoles ideas integradas para cumplir sus objetivos, seguir innovando desde la creación de soluciones, re-potenciar nuestro equipo.

ANUOR AGUILAR LANZA PROGRAMA EMPRESAS E INNOVACIÓN VÍA MERCADO NEGRO

El escritor Anuor Aguilar, autor del bestseller Mutágenus, lanzó el programa Empresas e Innovación, desde el portal mercadonegro.pe, donde abarca temas de marketing digital y las tendencias mundiales.
En la primera edición del programa, Anuor tuvo como invitado a Christian Marcial, Director y CEO de Smart Solutions Technology, con quien tuvo una interesante conversación que compartimos aquí.

martes, 17 de enero de 2017

PROTAGONISTAS DE LA INNOVACIÓN EN EL PERÚ

Anuor Aguilar, experto en marketing y autor del best seller Mutagenus; Timo Staedtke de Marketing Point.



Mariano Mart, músico argentino.
Diego Laura y su padre Juan Carlos Laura Maquera, de la marca peruana Finezza.



TECNOLOGÍA & NEGOCIOS PROGRAMA 16 DE ENERO 2017

Digitalización de las mypes se logrará a largo plazo


Diego Majdalani, presidente de Client Solutions Group Dell EMC para América Latina, dice que quieren llegar a más clientes.

Sucedió un 7 setiembre de 1984: Michael Dell fundó la empresa que lleva su apellido y que se convirtió en líder mundial en ventas de PC. Y el 7 de setiembre del 2016, en el cumpleaños 31 de la empresa, Dell adquirió el gigante de almacenamiento informático EMC por US$67.000 millones, dando un giro estratégico hacia este negocio. Diego Majdalani, presidente de Client Solutions Group de Dell EMC para América Latina, revisa la operación y su impacto en los planes para el Perú y la región.

¿Cómo se dio la fusión?
Por la visión de un líder como Michael Dell, de entender que a veces hace falta arriesgar para beneficio de la empresa y los clientes, y en este caso para crecer.

¿Cuáles eran los riesgos? 
Riesgo no hay porque lo que tenemos que pagar en servicios de deuda [obtenida para financiar la compra] es menos de lo que históricamente las compañías generaban de dividendos. Por suerte tenemos un líder único como Michael Dell que entiende de esto. Esto aporta valor a los clientes. 

¿Cuánto valor? 
EMC era fuerte en grandes clientes, y Dell, en clientes medianos a grandes. Cuando juntas los dos tienes una cobertura más grande. En el mercado peruano, los clientes que adquirían productos de las dos compañías era solo el 20%. Ahí se abre una oportunidad. 

¿Qué oportunidades específicas ven? 
A nivel de productos, los portafolios se complementan. Hay muy pocas líneas de productos [iguales] entre ambas compañías. En las fusiones se suele buscar economías de escala, pero esta no es así. La oportunidad de la fusión está en vender más y distinto, no en satisfacer la misma necesidad del cliente. 

¿Cómo van a aterrizar esta estrategia en América Latina?
Vamos comunicar a los clientes el beneficio de esta fusión y ampliar la cobertura. También queremos ayudar a los gobiernos en la transformación digital.

¿Cómo trabajarán con los gobiernos? 
En general, a nivel de gobierno hay una brecha de tecnología enorme. El uso de tecnología es muy necesario: porque vuelve más eficiente y transparente y se brinda un mejor servicio. Lo que hay que validar y definir es cuáles son las necesidades y de qué manera trabajar en esas soluciones.

La digitalización de las mype es una política bandera de este gobierno. ¿Qué oportunidades ven allí? 
El nuevo gobierno tiene varias metas en tecnologías, como crear una plataforma que permita a las mype acercarse a la tecnología. Es el camino correcto. No es un proyecto que se pueda ejecutar a corto plazo, sino a mediano y largo plazo. Es un proyecto en formación y desarrollo. Cada gobierno lo aborda de forma particular, según el nivel de tecnología y presupuesto. La experiencia ya existe en países similares.

Tras la fusión, Dell anunció que despediría entre 2.000 y 3.000 empleados.
El objetivo [de esta fusión] es vender más, no tanto bajar costos. Estamos acostumbrados a ver en estas fusiones eficiencia de costos. Esta no busca eso. Más allá de que sí haya [oportunidades para mejorar la eficiencia], lo que se busca es un crecimiento de las sinergias posibles.

lunes, 16 de enero de 2017

SAP lanza programa para su portafolio de soluciones SAP® Leonardo



SAP SE (NYSE: SAP) anunció un programa de activación inmediata para su portafolio de innovaciones asociadas a Internet de las Cosas (IoT, por sus siglas en inglés), con el propósito de ayudar a sus clientes a interconectar la gente y los procesos con el floreciente universo de los dispositivos inteligentes y permitirles obtener beneficios empresariales efectivos y tangibles.

Luego de anunciar su compromiso de invertir €2,000 millones en IoT durante los próximos cinco años, SAP presenta ahora SAP® Leonardo, un portafolio de soluciones IoT que empaquetan y combinan aplicaciones adaptables, aplicativos de big data y elementos de conectividad avanzados que aporta capacidades que abarcan múltiples industrias y líneas de negocios además de funcionalidades que comprenden el aprovechamiento de la infraestructura, los productos y los activos conectados, así como de aquellas redes interactivas que involucran flotillas de vehículos, mercados y personas.

El portafolio toma su denominación del personaje histórico que, gracias a su mente inquisitiva y su curiosidad intelectual, se encargó de abrir las puertas a una era revolucionaria para las ciencias y el descubrimiento. Si desea más información acerca de la marca comercial SAP Leonardo, haga clic aquí.

“La conversión de las interacciones de la gente y los procesos con las cosas a resultados mensurables y comercialmente viables conlleva el desarrollo de nuevos procesos empresariales, como Industry 4.0, así como la implementación de nuevos modelos de negocios y nuevas formas de vivir y trabajar”, explicó Tanja Rueckert, Vicepresidenta Ejecutiva de Activos Digitales e IoT de SAP. “Con el SAP Leonardo podemos conectar instantánea y proactivamente las ‘cosas’ con los procesos de negocios y las personas, quienes de esta manera disponen de sistemas autónomos e inteligencia aumentada para elevar la eficiencia de su gestión”.

Programa piloto de activación y precios de lanzamiento

Como parte de las actividades emprendidas por la red global de habilitadores especializados de los laboratorios de SAP Leonardo, SAP presentó un programa de activación inmediata que ayudará a empresas a identificar y validar proyectos piloto y casos de uso en el campo de las tecnologías IoT.

Basado en servicios de asesoría que contarán con la participación de expertos de SAP para industrias y líneas de negocios específicas, se desarrollará en múltiples fases, contemplando el desarrollo creativo de diseños que sincronicen las innovaciones en IoT con las estrategias y objetivos trazados por los clientes y la ejecución de proyectos piloto cuya viabilidad garantice la generación de un valor de negocios.

El programa, disponible a escala mundial, simplificará los primeros pasos de los clientes en el universo de internet de las cosas.

Además, SAP ofrece tarifas promocionales para su nuevo programa de activación IoT: definió una escala de precios simple que establece un costo fijo para el software y los servicios requeridos durante el desarrollo del proyecto piloto y el primer año de utilización de las soluciones.

Este paquete introductorio comprende las soluciones SAP Connected Goods, SAP Vehicle Insights, SAP Predictive Maintenance and Service y SAP Asset Intelligence Network. Así, la oferta de lanzamiento brinda transparencia de precios a los clientes y elimina las incertidumbres presupuestarias. Para más información sobre el programa de activación y las escalas de precios a disposición del público, haga clic aquí.

Capacidad para interconectar personas, empresas y cosas

SAP Leonardo reafirma la propuesta de valor de SAP de ampliar el alcance de los sistemas empresariales esenciales hasta los extremos donde la automatización y la inteligencia promueven la gestión de los datos IoT que allí se generan.

Tomando SAP HANA® como plataforma, SAP Leonardo ofrecen aplicaciones inteligentes de IoT, servicios de desarrollo empresarial, servicios técnicos de procesamiento de datos a altas velocidades y un sistema perimetral de inteligencia que procesa la información de cada dispositivo. Combina las fortalezas asociadas a SAP, incluyendo una sólida trayectoria de 45 años en el desarrollo de procesos de negocios que apuntalan el crecimiento de 25 industrias diferentes, el liderazgo de la compañía en el área de gestión big data y el desarrollo de soluciones integrales que cubren las siguientes áreas:
Productos conectados para la creación de nuevas perspectivas sobre la gestión del ciclo de vida útil, la definición de fuentes, la correlación entre la reactividad y el abastecimiento, la gestión de redes digitales de suministro y el diseño, la fabricación y la distribución de productos inteligentes y conectados, dirigidos a las diferentes industrias.
  • Activos conectados para rastrear, monitorear y analizar activos fijos, incluyendo procesos de fabricación y mantenimiento a escala empresarial, con el fin de reducir los costos e incrementar los ciclos operativos de los equipos.
  • Flotillas conectadas para que las organizaciones puedan adquirir y administrar sus activos movibles (vehículos, robots, montacargas y vehículos autónomos) y mejorar sus servicios y seguridad, elevando sus índices de visibilidad, logística y calidad de servicio.
  • Infraestructura conectada para brindar una nueva inteligencia operacional digital derivada de los sistemas de infraestructura física, de construcción y de redes energéticas y mejorar la calidad de los servicios, la eficiencia de las operaciones y los niveles de cumplimiento reglamentario y de mitigación de riesgos.
  • Mercados conectados para habilitar nuevos modelos de producción y de negocios a escala local y magnificar el oportunismo de las iniciativas emprendidas por los clientes en lo relacionado con las proyecciones de mercadeo, las operaciones digitales en el sector agrícola y la gestión de puertos de pequeña escala y ciudades intermedias.
  • Personas conectadas para fomentar roles laborales más perspicaces y colaborativos y simplificar la gestión de la salud, promoviendo los hogares inteligentes para interconectar a las personas y las comunidades mientras se ofrecen experiencias de vida más satisfactorias y personalizadas.
Para información más detallada sobre el portafolio, haga clic aquí

Evento enfocado en SAP Leonardo

SAP también anunció el primer evento global enfocado en el portafolio SAP Leonardo, con el fin de reunir bajo un mismo techo a los clientes, socios comerciales y expertos en IoT y presentarles las innovaciones y las estrategias empresariales más recientes aplicables a estas tecnologías. De acuerdo con lo proyectado, se llevará a cabo en las instalaciones de KAP EUROPA, en Frankfurt, Alemania, los días 11 y 12 de julio de 2017. Las próximas semanas se divulgará mayor información, incluyendo la agenda y los detalles de registro.

Para más información sobre los clientes que ya están disfrutando los beneficios empresariales que ofrece el portafolio SAP Leonardo, haga clic aquí.

Acerca de SAP
Como líder del mercado mundial de aplicaciones de software corporativo, SAP (NYSE: SAP) ayuda a compañías de todos los tamaños e industrias a funcionar mejor. De las áreas de soporte al directorio, del depósito a los puntos de venta y del escritorio a los dispositivos móviles, SAP potencia a las personas y a las organizaciones para que trabajen en conjunto con mayor eficiencia, utilicen la información de negocio con mayor efectividad y se mantengan así por delante de sus competidores. Las aplicaciones y los servicios de SAP permiten a más de 335.000 clientes operar de manera rentable, adaptarse continuamente y crecer de forma sostenible. Para más información, visite www.sap.com, nuestra sala de prensa, http://latam.news-sap.com/, o síganos en Twitter @SAPNoticiasLAC.