sábado, 22 de diciembre de 2018

Facebook: 10 claves para entender el nuevo escándalo que alcanza a Netflix y Spotify

La red social de Mark Zuckerberg le permitió a la app de películas y a la de música leer los mensajes privados de los usuarios

Facebook

El New York Times reveló el martes 18 de diciembre que Facebook le dio a otras 150 empresas, entre las que se encuentran Netflix, Spotify, Amazon, Yahoo y Microsoft, acceso a los datos de sus usuarios mucho más de lo revelado anteriormente.

El diario estadounidense precisa que Facebook incluso dejo ver mensajes privados con los nombres de contactos, lo que se ha convertido en un nuevo escándalo para la red social de Mark Zuckerberg.

A continuación, 10 claves para entender la polémica que mucha gente está comentado alrededor del mundo:

1. Según los documentos a los que el Times tuvo acceso, Facebook permitió al motor de búsqueda de Microsoft, Bing, ver nombres de amigos de Facebook sin consentimiento.

2. A Netflix y a Spotify, le dio la capacidad de leer mensajes privados.

3. Amazon podía obtener nombres de usuarios e informaciones de contacto a través de sus amigos.

4. Yahoo, en tanto, podía ver las publicaciones de sus amigos.

5. Facebook indicó que el informe del Times era sobre "socios integradores", que habilitan "experiencias sociales (...) y otras aplicaciones y sitios web populares".

6. La red social afirma que lo que hizo fue ayudar a los usuarios a acceder a sus cuentas de Facebook o características específicas en dispositivos y plataformas construidas por otras compañías como Apple, Amazon, Blackberry y Yahoo, lo que se conoce como 'socios de integración'.

7. Agregó que estos socios tuvieron acceso a los mensajes, pero los usuarios "tenían que iniciar sesión explícitamente en Facebook primero" antes de usar características de mensajería de un socio.

8. Según el director de desarrollo de plataformas y programas de Facebook, Konstantinos Papamiltiadis, "ninguno de esos acuerdos o herramientas dieron a las compañías acceso a informaciones sin el permiso de la persona" ni violaron el acuerdo privado de 2012 con la Comisión Federal de Comercio estadounidense.

9. Facebook agregó que cerró casi todas estas asociaciones en los últimos meses, excepto las de Apple y Amazon.

10. Un día después de conocerse el informa del Times, el fiscal de Washington demandó a Facebook por su gestión de datos personales en el marco del escándalo de Cambridge Analytica. Esta es la primera demanda de una entidad oficial estadounidense, lo que podría suponer consecuencias legales para la primera red social del mundo.

Osiptel confirmó una multa por más de S/420,000 contra Entel


La operadora fue sancionada por haber brindado información inexacta sobre teléfonos móviles. Aún queda la vía penal.

El Organismo Supervisor de Inversión Privada en Telecomunicaciones (Osiptel) ratificó una multa de 102.02 UIT, equivalente a S/423,383 según el valor UIT del 2018, a la empresa Entel por haber brindado información inexacta sobre teléfonos móviles. La chilena aún puede apelar ante las instancias judiciales, ya que la ratificación del Osiptel solo agota la vía administrativa.

Resultado de imagen para entel

Cabe recordar que el pasado 26 de octubre, el Osiptel emitió una resolución que sancionó a Entel con 102.02 UIT por incumplir el artículo 9 del Reglamento de Fiscalización, Infracciones y Sanciones (RISF) al entregar información inexacta sobre equipos terminales móviles a través de siete cartas entre abril y octubre de 2017. Dicho incumplimiento es considerado como una infracción grave.

Por esa razón, el 19 de noviembre la operadora presentó una apelación a la sanción y solicitó tener un informe oral sobre el caso ante el Consejo Directivo del regulador.

Facebook está desarrollando su propia criptomoneda, que haría de WhatsApp una plataforma de pagos y transferencias de dinero

Facebook está desarrollando su propia criptomoneda, que haría de WhatsApp una plataforma de pagos y transferencias de dinero

Los primeros detalles surgieron en mayo de este 2018, donde todo apuntaba a que Facebook está planeando desarrollar su propia criptodivisa para transacciones dentro de su plataforma. Hoy, según Bloomberg, surge nueva información de este proyecto, el cual sumaría a WhatsApp como plataforma principal.

La información menciona que Facebook sigue adelante con este proyecto y de hecho se trataría de una stablecoin, la cual estaría vinculada a un fondo en dólares estadounidenses para así poder garantizar su estabilidad y sea resistente a la volatilidad de los bitcoins y el resto de las criptomonedas.

Según apuntan, más que una criptomoneda se trataría de una 'moneda digital', la cual sería lanzada en un inicio en la India con el objetivo de ayudar a los trabajadores que están fuera de su país a enviar dinero a sus familiares. Una solución que algunas compañías se han planteado por medio del uso de bitcoins, y que resolvería las altas tasas por transferencias internacionales.

Se dice que WhatsApp tiene más de 200 millones de usuarios en la India, y tan sólo en 2017 el país recibió remesas por 69.000 millones de dólares. Ante esto, la estrategia de Facebook es clara: entrar a un mercado con gran potencial que les dejaría jugosas ganancias.

Al frente de este proyecto se encuentra David Marcus, expresidente de PayPal y quien originalmente entró a Facebook para echar a andar Messenger, pero que en enero de este año anunció que se uniría como el líder de la nueva división de Blockchain de la compañía.

A pesar de todo esto, se dice que el proyecto está en una etapa muy temprana de desarrollo, y apenas se están planificando los objetivos que buscan alcanzar y cómo podría funcionar esta tecnología aplicada en la vida diaria. La clave ahora mismo sería resolver la forma en la que protegerán los activos para mantener el valor de su moneda, por lo que aún tendremos que esperar un poco más para que se haga realidad.


LG CineBeam Laser 4K, el nuevo proyector que nos promete una imagen de 120 pulgadas en UHD a una distancia de 18 centímetros

LG CineBeam Laser 4K, el nuevo proyector que nos promete una imagen de 120 pulgadas en UHD a una distancia de 18 centímetros

LG sigue soltando la artillería de cara al arranque del CES 2019, donde como cada año la compañía se adelanta unas semanas para ir soltando pistas de los que veremos en su booth. En esta ocasión, LG está presentando, aunque sin ofrecer todos los detalles, la segunda generación de su familia CineBeam, que consiste en un interesante proyector láser de tiro corto con resolución 4K.

Parece que el mercado de los proyectores se anima, donde las apuestas de Hisense, Sony e incluso Xiaomi nos ofrecen opciones atractivas, aunque el precio nos siga echando un poco para atrás. En este caso, el nuevo LG CineBeam Laser 4K busca convencer a los consumidores al afirmar que su nuevo proyector nos dará hasta 120 pulgadas de imagen en una gloriosa resolución 4K.

Según LG, este nuevo CineBeam Laser 4K se basa en su tecnología Ultra Short Throw (UST), la cual fue presentada en el CES 2018, sólo que en esta ocasión deja aquel diseño "atrevido" en forma de caja rectangular en color gris, y apuesta por un aspecto más tradicional y sobrio, que ahora hace que si parezca proyector.

LG explica que debido a su tecnología UST podremos proyectar una imagen ya sea en el piso, techo o cualquier pared, donde la ventaja es que no necesitará mucha distancia para mostrar una imagen a la máxima resolución. Concretamente, LG asegura que se necesitarán sólo cinco centímetros para tener una imagen de 90 pulgadas o bien, 18 centímetros para aumentarla hasta 120 pulgadas.
Ces Cinebeam 4

LG no menciona nada de soporte para HDR, pero sí menciona que tendremos hasta 2.500 lúmenes, puertos USB, Ethernet y HDMI, así como conexión directa a nuestro smartphone a través de WiFi. Además, se incluye un mando Magic Control que se basa en gestos, y será el primero en incorporar soporte a ThinQ, la plataforma de inteligencia artificial de LG que nos permitirá el control por voz con lenguaje natural y otras funciones.

LG no dio precio ni más especificaciones técnicas, pero durante el CES 2019 tendremos oportunidad de conocerlo en persona para saber que más incluye y si es suficiente para plantearlo como una opción para nuestro salón.

Ces Cinebeam 1

Estados Unidos acusa a dos hackers chinos de robar datos de la NASA, IBM y más empresas

hacker

Entre Estados Unidos y China, actualmente, hay una finísima barrera que separa una situación de calma tensa de lo que puede ser una catástrofe. Este 2018 se han intensificado las disputas entre ambos países, y no por un conflicto territorial, sino por la guerra tecnológica y comercial. Ahora, el conflicto vive un episodio más, ya que EE.UU. acusa a dos hackers chinos de robar datos de 45 empresas y agencias, como la mismísima NASA.

La disputa entre China y Estados Unidos tiene varios frentes. Por un lado, para entrar en la Casa Blanca, Trump esgrimió el ''América primero''. Esto supuso una política de proteccionismo que afecta, y mucho, a China. El gigante asiático suministra muchísimos elementos a Estados Unidos, y si hablamos de tecnología, la mayor parte de la producción norteamericana está en China.

Con las últimas políticas del presidente norteamericano se pretende que las empresas muevan su producción a suelo estadounidense para, así, no depender de China. Por ello, se han impuesto aranceles comerciales, y más sanciones podrían llegar dentro de muy poco si China y EE.UU. no llegan a un acuerdo.

Al margen de la guerra por los aranceles, los dos países están viviendo una crisis en las relaciones debido a que la hija del fundador de Huawei, Meng Wanzhou, que a su vez es directora financiera de la compañía, está retenida en Canadá. Estados Unidos la reclama, y China ha amenazado a Canadá que sufrirán las consecuencias si no la liberan.

Y, por si fuera poco, está el tema de los supuestos chips espía que China habría infiltrado en Estados Unidos a través de placas base para servidores. Ahora, tras poneros en necesario contexto, nos encontramos con un episodio más en esta guerra tecnológica entre Estados Unidos y China.

Y es que, la administración de Trump ha acusado a dos supuestos hackers chinos de robar datos de 45 empresas y agencias estadounidenses entre las que se encontrarían gigantes como IBM o la propia NASA. Y no, no es que estados Unidos, el Departamento de Justicia, para ser exactos, acuse a dos hackers anónimos, sino que señala, directamente, al ministerio de Seguridad del Estado chino como los responsables.

Según Estados Unidos, los dos hackers, Zhu Hua y Zhang Shilong, están respaldados por el Gobierno chino y tienen como objetivo desestabilizar las empresas estadounidenses más importantes para, así, tambalear el equilibrio del país. Más allá de las consecuencias directas (China tendría acceso a datos como números de la seguridad social o sueldos de integrantes del Estado), hay un conflicto a mayor escala.

Y es que, Trump busca apoyo fuera de Estados Unidos para actuar contra China y los supuestos hackers respaldados por Beijin. Y, además, se pondría punto final a la tregua de ciberataques que se firmó en 2015 y que podría no haberse respetado en absoluto.

domingo, 9 de diciembre de 2018

La digitalización en banca y seguros: el cliente al centro



Ya pasada la etapa inicial de presentar a los consumidores los primeros productos digitales, el reto del sector de banca y seguros se divide: cumplir con las exigencias de sus clientes digitales sin descuidar la misión de captar a aquellos aún reacios a migrar al lado digital. Para los clientes más jóvenes —algunos nativos digitales— la pelea por el espacio en la memoria del celular, un espectro más amplio de comparación de servicio al cliente y una mayor exigencia en cuanto a la experiencia de uso crean la necesidad de acortar los tiempos entre lanzamientos y relanzamientos de productos. Ante ello, el uso de metodologías ágiles y la creación de centros de innovación han sido las estrategias preferidas por el sector.

En cambio, para el segmento de clientes que aún no es captado por los productos digitales, la percepción de falta de seguridad y la falta de costumbres son los principales retos a atacar. Campañas de educación, rediseño de la experiencia de usuario y el uso demarketing de contenidos son las estrategias más utilizadas para captarlos y así aumentar la penetración de los productos digitales.

La agilidad requerida en la nueva era de negocios digitales ha impulsado una transformación en el interior de las empresas de banca y seguros. Una de las primeras muestras de ello ha sido la creación de nuevas gerencias y de centros de innovación. Así fue en Pacífico Seguros. “[Antes del 2016] teníamos iniciativas pero no estaban engranadas. La Chakra [centro de innovación de Pacífico Seguros] fue nuestro hito para iniciar de manera más estructurada la transformación digital y la adopción de metodologías ágiles. Cuando trabajas pensando en el viaje del cliente puedes ofrecer lo que el cliente necesita y no lo que tienes para darle. Nosotros vivíamos pensando en productos”, dice María Félix, gerente de gerente de la división de experiencia del cliente y transformación digital de Pacífico Seguros.

La metodología ágil y de design thinking son las preferidas en este contexto. Ellas suponen un enfoque en el cliente para la resolución de problemas de manera rápida mediante equipos multidisciplinarios. El BBVA Continental las aplica. “Antes se trabajaba bajo la metodología waterfall [desarrollo de un proyecto de manera secuencial] pero era poco eficiente. Hace tres años comenzamos con la metodología ágil y los plazos para los proyectos se han acortado a tres meses y hemos aplanado las estructuras. El banco va mucho más rápido. Lo que más nos ha costado es el cambio cultural: que la persona que decida no sea el gerente”, comenta Jaime Mourao, CMO del BBVA.

Las empresas buscan que las innovaciones digitales estén centradas en el cliente. El objetivo es aumentar el engagement de éstos con nuevos productos y servicios. “Antes los clientes no veían cada decisión que las compañías tomaban frente a su tecnología. A lo sumo le llegaba un comprobante por mail. Hoy cada decisión tecnológica se pone al servicio del cliente, tiene un impacto directo”, dice Alejandro Amicone, CEO de Accenture Perú.

En el sector asegurador los cambios más significativos están en la mayor eficiencia de los procesos de cara al cliente. “Estamos transformando la manera en la que nuestros asesores, cerca de 1,500 personas, tratan con el cliente. Antes se conversaba con el cliente y luego se regresaba con una solución. Ahora [los asesores] tienen una tablet en la que se procesa toda la solución. La póliza puede ser cerrada de manera inmediata”, añade Félix. Con la iniciativa, llamada Modelo Día, la empresa logró reducir el tiempo de emisión de pólizas de siete días a un día en promedio.

En la banca, para los clientes que estén migrando de lo físico a lo online, un primer acercamiento híbrido serían los cajeros automáticos. “La primera barrera que encontramos [en la digitalización] es que habían clientes que desconfiaban hasta del cajero automático. Aplicamos campañas de educación, mejoramos la experiencia de usuario dentro de los cajeros para que fueran más fáciles de usar. El siguiente paso es el de la banca móvil”, dice Mourao. Este mes BBVA Continental también instaló wi-fi en el 90% de sus oficinas para facilitar la descarga de la aplicación en las instalaciones.

Los retos para el sector aún persisten. “La inseguridad es el principal reto”, dice Arturo Johnson, gerente de canales alternativos del BCP. La percepción de la falta de seguridad se ve agravada ante noticias de ataques de ciberseguridad a la banca, como el ocurrido en agosto. Metodologías que permitan entender los miedos y la resistencia de los clientes hacia los productos digitales son, por tanto, las más usadas por las empresas en el proceso de transformación.

Para ello, las estrategias de los bancos están dirigidas a la educación financiera de los clientes mediante programas continuos, publicidad y mayor información en los puntos de atención. “Estamos comunicando de manera continua a los clientes cómo pueden mitigar el riesgo. Esto muta constantemente porque [los retos de seguridad] cambian”, añade Johnson.

En las aseguradoras la poca familiaridad de los clientes con los términos legales puede ocasionar una percepción negativa en cuanto a la transparencia de los productos digitales ofrecidos. La comunicación diferenciada es una de las principales estrategias para paliar este problema. “Hemos creado una malla de comunicación dependiendo del perfil del cliente. Nuestro objetivo es que el cliente sienta que está siendo acompañado de manera transparente y que, sin dejar de cumplir con lo legal, le podamos hablar en fácil”, añade Félix, de Pacífico.

Las baterías de fluoruro que harán que tu celular dure una semana con una sola carga

Batería Celulares

Quédate con este nombre: baterías de fluoruro. Aunque todavía el litio no ha encontrado competidor a su altura en el mercado de las baterías, si no fuera porque debe hornearse a 150ºC, el fluoruro se habría puesto por delante. Esta tecnología promete que sea suficiente con cargar tu smartphone una vez a la semana, en lugar de una vez al día. Y ahora, una investigación publicada en Science puede hacer cambiar las reglas del juego.

Según Robert Grubbs, ganador del Premio Nobel de Química en 2005 y líder de la investigación en el Instituto Tecnolgico de California (Caltech), "las baterías de fluoruro pueden tener una mayor densidad de energía, lo que significa que pueden durar hasta ocho veces más que las baterías que se usan hoy en día". Pero está el pequeño problema de la temperatura: para solucionarlo, los científicos usaron un solvente electrolítico llamado bis (2,2,2-trifluoroetil) éter (BTFE).

Al combinar el fluido con el trifluoruro de cobre-lantano, los investigadores descubrieron que era posible hacer una batería eficiente basada en aniones que se pueda recargar y descargar sin la necesidad de aumentar el calor.Actualmente, para suministrar energía a los dispositivos electrónicos, la tecnología electroquímica hace uso de los cationes de litio 'Li2 +', cargados positivamente como una especie de pistón químico para extraer una carga eléctrica a través de un circuito. A plena carga, un suministro de cationes ocupa el ánodo de la batería. Una vez que se cierra el circuito, los iones se acumulan en el cátodo, produciendo una corriente que hace el trabajo más importante. Para restablecer la celda, todo lo que se requiere es un voltaje que empuje el pistón de litio nuevamente.

Y este pistón puede funcionar también a la inversa. Los iones negativos como el fluoruro (F-) pueden crear el voltaje necesario para atraer electrones a través de un conductor. Y, de hecho, son capaces de hacer un trabajo aún mejor, gracias al menor número de cargas por ion. Así que la tecnología basada en pequeños aniones, como la obtenida por el fluoruro, podría en teoría hacer una mejor batería. "Pero puede ser difícil trabajar con fluoruro, en particular porque es muy corrosivo y reactivo", dice Grubbs.
Las baterías de fluoruro que harán que tu celular dure una semana con una sola carga
Esto no quiere decir que se haya fabricado una batería funciona de ion fluoruro. "Todavía estamos en las primeras etapas de desarrollo, pero esta es la primera batería de fluoruro recargable que funciona a temperatura ambiente", conluyen los investigadores.

Por otra parte el litio es un elemento muy raro y costoso. Por ello, son muchos los investigadores que se han puesto manos a la obra para desarrollar baterías de alto rendimiento pero de bajo coste basadas en elementos abundantes.

En este camino, científicos de la Universidad de Stanford (EE.UU.) han conseguido desarrollar un dispositivo de almacenamiento basado en sodio que puede almacenar la misma cantidad de energía que una de litio de última generación, y a un coste sustancialmente menor. Aunque no son los primeros en poner al sodio en su foco de estudio, aseguran que su investigación, publicada en Nature Energy, reúne las características de precio y rendimiento para crear una batería de ion sodio que cuesta menos del 80% de una batería de iones de litio, y tiene la misma capacidad de almacenamiento. El precio del litio se encuentra en alrededor de 15.000 dólares por tonelada refinada y la misma cantidad de sodio solo 150 dólares.

sábado, 8 de diciembre de 2018

Microsoft confirma la muerte de su navegador web Microsoft Edge

Microsoft Edge Chromium 740x393 0

Hace unos días se rumoreara que Microsoft buscaría acabar con el corto ciclo de vida de su navegador Microsoft Edge, el cual se estrenaba en 2016 con el lanzamiento en sociedad de Windows 10 para más tarde ir migrando poco a poco a otros sistema operativos como Android e iOS, y ha sido en el día de hoy cuando la compañía ha confirmado la información, Microsoft Edge pasará a mejor vida, o al menos tal y como lo conocemos, pues podrían mantener su nombre.

Este espartano (su nombre en clave antes de lanzamiento fue Spartan) solo ha conseguido sobrevivir 28 meses en un mercado dominado por navegadores webs basados en el código abierto Chromium, el cual emplean otros navegadores como Google Chrome, Opera o Brave, y el próximo navegador de la compañía más valiosa del mundo.

Edge muere con la idea de lanzar un nuevo navegador que gracias a este código abierto le permita tener actualizaciones más frecuentes (además de reducir los esfuerzos en ingeniería y codificación para mantener a Edge siempre actualizado y seguro). Esta muerte anunciada también se debe a que Microsoft no tiene nada que perder, pues Edge tiene una cuota de mercado de solo el 4 por ciento, por lo que tiene mucho más sentido lanzar un navegador web mucho más moderno y adaptado a la corriente principal del mercado que incluso le ayudaría a romper esa brecha del 4 por ciento.

Por ahora se desconoce el nombre del nuevo navegador, al que Microsoft únicamente cita como “un nuevo Microsoft Edge“, así que la compañía podría mantener finalmente el mismo nombre. La primera versión de este navegador, en forma de pre-builds, llegará a principios de 2019, además de que ya se adelantó que con este nuevo intento Microsoft quiere poder lanzar su propio navegador web compatible con los equipos Mac OS.

En Japón hay una cafetería atendida por robots que no sustituyen a los humanos, ya que son operados por personas discapacitadas

En Japón hay una cafetería atendida por robots que no sustituyen a los humanos, ya que son operados por personas discapacitadas

Hemos hablado mucho de la creciente participación de los robots en diversos puestos de trabajo, lo que provocará que en un futuro disminuyan las posibilidades de empleo para los humanos. Ante esto, Japón está demostrando que esto no es del todo cierto, ya que aseguran que humanos y robots pueden trabajar en conjunto, e incluso la participación de los robots traería la posibilidad de que personas con alguna discapacidad puedan volver a la vida laboral.

Ahora mismo en Japón están probando el concepto de una cafetería que precisamente busca impulsar a que las personas discapacitadas puedan trabajar desde casa, interactuar con otras personas y ser productivos. Todo esto por medio de robots controlados de forma remota.

Esta cafetería está ubicada en Minato Ward, Tokio, y se trata de una prueba piloto que busca analizar el desempeño de personas discapacitadas usando un robot de forma remota para atender a los clientes. Aquí se revisará tanto el comportamiento de los clientes, como el tiempo de respuesta del servicio.

En total son cinco robots OriHime-D los que se han puesto en operación, los cuales han sido fabricados por la empresa japonesa Ory Laboratory. La idea original de estos robots era que sirvieran de apoyo en los hogares de personas con discapacidad, por lo que cuentan con una interfaz preparada para ser operada a través de una tablet sólo con el movimiento de los ojos.

Las personas, quienes padecen alguna enfermedad que limita sus movimientos, como lesiones de la médula espinal o enfermedades neurodegenerativas progresivas como la esclerosis lateral amiotrófica, pueden usar el robot para observar todo a su alrededor, charlar con los clientes y transportar objetos.

Cada una de estas personas percibe un salario de 9 dólares por hora, y con ello se busca crear una mayor independencia en personas que no pueden salir de sus hogares a buscar un empleo.

Cada robot mide 1,20 metros y pesa unos 20 kilogramos, cuentan con cámara y altavoz, además de sensores para evitar obstáculos. Toda la información se trasmite en tiempo real a la tablet de la persona a través de internet, quien al final decide cada movimiento y acción que tendrá cada robot.

En este proyecto colaboran, además de Ory, Fundación Nippon y ANA Holdings Inc., y el objetivo es abrir al menos una cafetería con este sistema en 2020, que estaría lista para atender a los millones de turistas que llegarán al país durante los próximos Juegos Olímpicos.

Qué es un servidor DLNA y cómo configurar uno en tu PC para ver tus archivos en otros dispositivos

Resultado de imagen para dlna
Hoy te vamos a explicar qué es un servidor DLNA y cómo puedes configurarlo en Windows 10 para poder compartir el contenido multimedia de tu ordenador con el resto de dispositivos compatibles de tu casa. Se trata de un método con el que podrás, por ejemplo, ver las series de tu ordenador en una SmartTV sin tener que llevarlas en discos duros o unidades USB.

Sin embargo, vamos a ir un poco más allá del mero proceso de configuración. Vamos a empezar explicándote qué es la tecnología DLNA. Luego pasaremos a explicarte cómo configurar tu ordenador como un servidor para tu red doméstica, cómo elegir después qué carpetas compartir y cómo ver el contenido en otros dispositivos. Además, terminaremos hablándote de Plex y Kodi, dos de las principales alternativas de terceros para obtener resultados parecidos.


La tecnología DLNA o Digital Living Network Alliance está presente en tu televisor, en dispositivos como el Roku, en tu PlayStation 4 y Xbox One, en aplicaciones de tu portátil, en tus discos duros NAS e incluso en tu teléfono móvil. Se trata de un estándar cuyo objetivo es comunicar tus dispositivos de forma sencilla y directa para compartir archivos entre ellos.

La conexión entre los dispositivos se realiza a través de una red que se configura dentro de tu red doméstica, lo que quiere decir que todos los dispositivos tendrán que estar utilizando una misma WiFi o subred Ethernet. Todos tendrán que ser compatibles con DLNA, y deberá haber un dispositivo que haga de servidor para ofrecer contenido, mientras que el resto actuarán como receptores.

De esta manera, se creará una red en la que el dispositivo que haga las veces de servidor compartirá archivos multimedia para que el resto de integrantes de la red puedan acceder a ellos. Lo mejor de todo es que no necesitarás instalar nada en los dispositivos receptores, ya que detectarán automáticamente los archivos que estén compartiéndose a través de la red.

El uso más habitual de una red DLNA es acceder al contenido de cualquier equipo conectado a la red y reproducirlo. Lo normal es utilizar un ordenador de sobremesa o un disco en red (NAS) como el eje central de tu red DLNA, configurándolos como servidor para compartir el contenido en el resto de dispositivos de tu casa.

De esta manera, si tienes una película, serie, música o fotografías que quieras compartir en ese PC o NAS, estos podrán reproducirse directamente desde tu SmartTV si la tienes conectada a tu WiFi, desde tu videoconsola o desde el teléfono compatible. Es una manera más sencilla que, por ejemplo, tener que poner este contenido en un USB o disco duro y luego tener que conectarlo al televisor.

Una de las ventajas que tiene utilizar tu ordenador de sobremesa para esta tarea es que Windows tiene integrado un servidor DLNA que te permite no necesitar instalar ningún tipo de aplicación para configurarlo. Además, podrás seleccionar las carpetas de tu ordenador que quieras compartir con los dispositivos receptores, de manera que para compartir archivos sólo los vas a tener que mover a ellas.

sábado, 1 de diciembre de 2018

La tragedia de la privacidad: 500 millones de cuentas hackeadas en Marriott ya no asombran a nadie

La tragedia de la privacidad: 500 millones de cuentas hackeadas en Marriott ya no asombran a nadie

Ni nos despeinamos ya al oír algo tan increíble como esto. ¿Qué son 500 millones de cuentas de Marriott? No mucho, parece, sobre todo cuando las comparamos con las 3.000 millones de cuentas que estuvieron expuestas en Yahoo! o el reciente caos de Cambridge Analytica y Facebook que fue menor en cantidad pero mucho más relevante en impacto.

Lo cierto es que el suceso es más importante de lo que parece, porque 500 millones de clientes de esta cadena hotelera podrían ver expuestos algunos datos personales, algo que plantea amenazas como las de la suplantación de identidad o la ingeniería social haciendo uso de esos datos. La seguridad de nuestros datos y su privacidad vuelven a escena, y es necesaria otra reflexión sobre esta amenaza permanente.

Marriott International indicaba hoy cómo la base de datos de reservas de su división Starwood Hotel fue hackeada en 2014, y desde entonces ha habido potencial acceso a los datos de los clientes que han realizado reservas en dicha cadena.
Marriott

Eso supone que la información de 500 millones de clientes podría estar expuesta, y en la investigación interna se reveló que esos accesos no autorizados sirvieron para extraer y cifrar la información.
La empresa afirma haber dado los pasos necesarios para rectificar la situación, pero el impacto del problema es claro: para 327 millones de clientes entre esos datos estaban el nombre, dirección postal, dirección de e-mail, número de móvil, número de pasaporte, fecha de nacimiento, género y algunos detalles adicionales. El resto de clientes afectados no tenían tantos datos accesibles.

En algunos casos había también datos de las tarjetas de crédito con las que se pagaron los servicios en esos hoteles, aunque según los portavoces de Marriott esa información está cifrada. Según Reuters "se necesitan dos componentes para descifrar los números de las tarjetas de crédito, y en estos momentos Marriot ha indicado que no ha sido capaz de descartar la posibilidad de que ambos hayan sido robados".

Una vez más nos vemos enfrentados a estos robos masivos de información, y una vez más nos preguntamos cómo ha podido pasar en empresas de la dimensión de las que se ven afectadas por estos problemas.

Facebook
Ningún sistema es 100% seguro y menos en los tiempos que corren, pero lo cierto es que cuando se trata de la protección de nuestros datos las empresas se vuelven a mostrar ineficientes con la aplicación de mecánicas de seguridad.

Esa es toda una condena para los usuarios que ceden sus datos a terceras partes creyendo que están seguros para encontrarse con que no lo estaban tanto. No hablamos ya de términos de privacidad potencialmente perjudiciales para los usuarios —qué comparte esa empresa de nosotros y con quién— sino de fallos de seguridad que hacen que esa información privada esté en manos de otros.

La tragedia aquí es que todos estos fallos de seguridad están convirtiendo algo terrible en algo cotidiano. Ya no nos asombra oír que 500 millones de cuentas (¡500 millones!) han sido extraídas de una base de datos como la de Marriott. La privacidad vuelve a perder la batalla, y no parece que haya muchos esfuerzos por corregir la situación.

De hecho quizás aquí los grandes organismos reguladores deberían tomar cartas en el asunto y poner fuertes restricciones a este tipo de descuidos. La GDPR es una legislación en esa línea —con sus propias sombras, eso sí—, pero las empresas que sufren estos problemas no parecen sufrir consecuencia alguna a pesar del daño a los clientes.

En el Reino Unido Facebook por ejemplo fue condenada con una multa de apenas 565.000 euros gracias en parte a que la GDPR aún no había entrado en vigor cuando se produjo el escándalo, y quizás tanto en este como en el resto de casos este tipo de problemas deberían ser sancionados de forma mucho más severa.

Huawei confirma que están desarrollando un sistema operativo móvil que reemplazaría a Android en el futuro

Huawei confirma que están desarrollando un sistema operativo móvil que reemplazaría a Android en el futuro
Atentos con Huawei y el que sería su más ambicioso proyecto. Un ejecutivo de la compañía salió a confirmar, sin muchos detalles, que están trabajando el desarrollo de un sistema operativo propio, el cual apuntaría a sustituir a Android en un futuro no muy lejano.

No se sabe si el ejecutivo se refiere al rumoreado Kirin OS, del que surgió información en septiembre, sin embargo, se trataría de un vistazo al movimiento estratégico importante, ya que Huawei estaría buscando una mayor independencia en caso de la situación con Estados Unidos recrudezca.

Tras los problemas que han surgido a raíz de la relación entre Estados Unidos y China, que llevó a que el gobierno de Trump "aconsejara" a los países aliados a no usar dispositivos de Huawei, una medida que le sigue a la prohibición gubernamental de usar cualquier producto del fabricante. Y viendo lo que le pasó a ZTE, parece que Huawei no piensa quedarse de brazos cruzados.

李小龙 Bruce_Lee, vicepresidente de productos móviles en Huawei, confirmó a través de Weibo que la compañía está desarrollando su propio sistema operativo que reemplazará a Android con el tiempo. ¿Cuándo? No lo sabemos, pero es un hecho de que Huawei tiene un 'Plan B'.

Ante la avalancha de preguntas que surgieron a raíz de esta publicación, el ejecutivo sólo se limitó a mencionar que "está en desarrollo". Es decir, no sabemos si se trata de Kirin OS, pero tendría todo el sentido del mundo.

Curiosamente, esta confirmación llega a unos días de que nos enteráramos que Huawei se convirtió de forma oficial en el primer fabricante en estar probando Fuchsia OS, el misterioso sistema operativo que está desarrollando Google. Lo que significaría que Huawei tiene varios frentes abiertos y está preparado para todo tipo de situaciones.

Lo que se dice es que Huawei se está anticipando a la rumoreada muerte de Android a manos de Google y Fuchsia, y el fabricante chino estaría trabajando en opciones para diversos tipos de usuarios, por ello las pruebas de compatibilidad de sus dispositivos con Kirin 970 con Fuchsia, con lo que darían continuidad al trabajo realizado con Android.

Por otro lado, el nuevo sistema operativo daría pie para arrancar con una nueva gama de productos, que no sólo abarcaría teléfonos móviles, sino wearables y hasta posibles dispositivos de domótica, con lo que la compañía empezaría a desarrollar su propio ecosistema. Aquí hay que mencionar que esto no es del todo nuevo, Samsung ya lo está intentando con Tizen, que junto a Bixby aún no han logrado despegar del todo. Ya veremos qué se trae entre manos Huawei

De Clara a Rita: los superordenadores que guardaban toda la información de Hacienda y los DNIs del país

De Clara a Rita: los superordenadores que guardaban toda la información de Hacienda y los DNIs del país

Los supercomputadores actuales se encuentran en la escala de los petaflops, pero no hace falta ese rango de operaciones por segundo para convertirse en una útil herramienta de predicción. Desde hace muchos años, las distintas organizaciones del Estado han utilizado estas máquinas para gestionar las enormes bases de datos de los ciudadanos.

Hoy hemos querido echar la vista atrás y repasar brevemente algunos de los superordenadores más importantes del gobierno de España. Desde el superordenador que utilizaba la Guardia Civil en los años noventa hasta los nuevos equipos que utiliza la AEMET para poder predecir el tiempo de la forma más precisa.

Ninguno de ellos se encuentra en el top de ordenadores más rápidos y la gran mayoría de hecho han quedado en desuso, pero han cumplido funciones muy importantes y es interesante conocerlos para ver cómo las administraciones han intentado gestionar nuestros datos durante las últimas décadas.
Clara

En El Escorial, en la sede de la Dirección General de Policía, se guarda desde el año 2000 el superordenador Clara, fabricado con una inversión de 490 millones de euros. Se trata de una máquina que se creó para guardar la información de los DNI, además de datos policiales como las personas con antecedentes y las base de datos de los agentes. Una enorme máquina guardada en un recinto, según explica Verne, de 130.000 metros y con cabida para 200 trabajadores.

También contaba con dos grandes acumuladores, una habitación repleta de baterías, tres generadores diésel de 18 cilindros y un sistema para enlazar con el repetidor de Guadarrama por si las líneas se cortaban. Pero, según relatan, el propio ordenador no ocuparía más de dos armarios de 1,8 metros, sería de la marca Sun Microsystems y tendría unos 3 terabytes de almacenamiento.

Protegido por un sistema de vallas electrificadas y varios sistemas de seguridad, el ordenador Clara se popularizó debido a un problema con las radiaciones ionizantes detectadas. Tal es así que se generaron varios casos de cáncer que pusieron en alarma al equipo de la policía, aunque finalmente se debían a las emisiones radiactivas de gas radón y no directamente al ordenador. Hoy en día sin embargo, la información que figura en los DNIs electrónicos se gestiona desde una nube de servidores más descentralizada.
El Escorial

Muchos años antes de Clara, la Dirección General de la Policía creó Berta. Un superordenador Siemens H-90 y H100 que ocupaba 13 armarios. En aquella máquina el Ministerio del Interior almacenaba las huellas de los DNI, las multas de tráfico y utilizó la potencia de este cerebro para la lucha antiterrorista. Fue el primer contacto del gobierno español con los superordenadores pero no vino solo.

El segundo superordenador fue El Duque de Ahumada, el cerebro de la Guardia Civil y nombrado en honor a su fundador. Inaugurado en el 85, esta máquina tenía acceso a los ficheros de Clara, además de los de la administración y al fichero BASETER, una base de datos que contenía aquellas personas sospechosas de pertenecer a grupos terroristas.
Sara Red

S.A.R.A es el acrónimo de 'Sistemas de Aplicaciones y Redes para las Administraciones'. Desarrollado en 2006, no es exactamente una supercomputadora sino una infraestructura de varios ordenadores, una intranet capaz de conectar hasta 1.200 máquinas. Entre sus capacidades se detalla que tenía hasta 144 Megabytes por segundo de transmisión, un almacenamiento de 6 terabytes y 6.000 metros de fibra óptica.

¿Para qué se utiliza la red Sara? Principalmente para acceder a todos los datos administrativos, desde el abono de tasas, solicitar ayudas, pedir certificados u obtener información sobre la vida laboral. Un proyecto que se convirtió en el germen de lo que sería la red 060 de atención integrada a los ciudadanos y los distintos portales web de la administración española.
Hacienda Rita

Otro de los grandes superordenadores del gobierno español perteneció a Hacienda y se denominó Rita. En su momento fue descrito como "el espía más poderoso, extenso y sofisticado de España." Ubicado en la calle Santa Magdalena de Madrid, la máquina era capaz de cruzar cada día miles de datos.

Más recientemente en el Departamento de Informática de la Agencia Tributaria trabajan más de mil empleados en un edificio con 27.000 metros cuadrados y lo que antes era un superordenador se ha sustituido por granjas de servidores. También se cuenta con una aplicación informática denominada Controla, que registra los movimientos alrededor de los contribuyentes.

Bull

Aunque si hay una agencia estatal que necesita de un superordenador para funcionar esa es AEMET. En 2005, la Agencia Estatal de Meteología disponía de un superordenador Cray X1, con una potencia pico de cálculo de 1.178 GFLOPS. Pero a finales de 2014 se sustituyó por el BULL DLC B700, un nuevo sistema con una potencia de hasta 168 Teraflops y setenta y cinco más veces más potente que el anterior.

Este nuevo ordenador, todavía en uso, está formado por 338 nodos y se situó a finales de 2014 entre los 500 más potentes del mundo y el tercero de España. Su precio final fue de 3.5 millones de euros a la empresa Bull y sus sistemas de predicción numérica del tiempo son capaces de resolver escalas horizontales en un rango de entre 1 y 3 kilómetros en hasta 36 horas de tiempo.

De aquí salen cada año 4000 predicciones a nivel estatal y 40.000 para las comunidades autónomas; 30.000 avisos de fenómenos meteorológicos adversos y 20.000 avisos para Defensa, entre otras tantas predicciones. Pero pese a su buen rendimiento, ya está previsto iniciar un nuevo centro en Gran Canaria para el año 2020 que contaría con un nuevo radar y otro superordenador.

sábado, 3 de noviembre de 2018

La virtualización de la red y el nuevo modelo de negocio para la llegada del 5G

La virtualización de la red y el nuevo modelo de negocio para la llegada del 5G

Es de sobra conocido por todos los avances que se están realizando en el sector de automoción con los coches conectados o en las Industrias, con la incorporación de robots y tecnologías que revolucionarán el concepto que tenemos actualmente. Pero, ¿qué hay detrás? ¿Cuáles son las claves para que estos avances lleguen a materializarse realmente en un futuro?
Después de un primer post sobre los retos y procesos evolutivos de la red para preparar la llegada del 5G, debemos hablar de los siguientes pasos y un nuevo modelo. El modelo denominado B2B2C (Business to business to consumer) trata de convertir la red en una plataforma sobre las que otros proveedores de servicio desarrollen y alojen soluciones para los usuarios en distintos puntos de nuestra red. El reto ante este nuevo modelo es encontrar el equilibrio entre los operadores y los diferentes proveedores de servicio que permita a ambas una gestión eficiente. Para que este nuevo modelo pueda hacerse realidad es necesario hacer uso de la virtualización de la red. En Telefónica, compañía que prepara la llegada del 5G, llevan años trabajando en esta transformación, siendo visionarios en 2013 anunciando nuestros primeros planes de virtualización de red con UNICA.
Nos espera un mundo muchas veces difícil de imaginar, en el que la calidad, la velocidad, la conectividad masiva y la baja latencia serán imprescindibles.
Es importante destacar el esfuerzo que están realizando en Telefónica actualmente en la evolución de la red para cuando la tecnología 5G lo requiera. Un esfuerzo realizado no sólo para ser uno de los primeros en el mercado, sino también para poder equipar su red con capacidades aún mejores y arquitecturas más eficientes y escalables.
Para el despliegue de 5G es importante conseguir una evolución E2E de las diferentes partes involucradas. Los despliegues de 5G estarán condicionados a la madurez de la tecnología (en equipamiento, terminales y dispositivos) y a la demanda de servicios.
Los estándares – La tecnología 5G está siendo definida por el 3GPP.
Los chipsets – que serán usados por los dispositivos para soportar 5G.
El equipamiento de red – tanto en la red Radio como en el CORE, implementará lo que se define en el estándar de 3GPP.
Los dispositivos – basados en las implementaciones del chipset.
figura uno 5G
A finales de 2017 se cerraba una primera versión de la especificación técnica (Rel 15 stage2) para el despliegue de 5G en modo “Non-Standalone 5G NR (NSA)”, en el que el nodo de radio 5G se apoya en el nodo 4G para señalización, que está controlada por un núcleo 4G evolucionado (EPC+). NSA permitirá comenzar con los primeros trials durante 2019, desplegando 5G sobre la infraestructura actual de 4G, y actualizando esta red 4G vía software.
figura dos 5G
La versión Standalone 5G NR (SA) supone manejar el plano de control y de usuario desde el nuevo Core 5G. La especificación para SA no está aun totalmente cerrada por el 3GPP y habrá que esperar a la siguiente release, que llegará sobre el primer cuatrimestre de 2019 (Rel 15 Stage 3). Esta release traerá mejoras también para Network Slicing, un modelo más granular de QoS y una arquitectura de seguridad más avanzada.
El estándar define diferentes opciones de implementación en función del Core usado (EPC o 5GC) y de la Radio (NSA o SA). Actualmente se consideran 6 opciones, algunas de ellas con diversas variantes.
figura 3 5G

De todas estas opciones, en Telefónica trabajan con dos de ellas por considerarlas las más adecuadas para nuestra estrategia. Una de ellas (opción 3, con la radio 5G apoyándose en la radio 4G para la señalización y control desde el Core 4G –EPC-) será la primera en ser desplegada (por disponibilidad de terminales y de equipamiento de red) para comenzar la implantación de 5G, basada en la release 15 stage 2 del 3GPP. Aunque esta opción no tendrá toda la funcionalidad de 5G al completo y dependerá de la infraestructura 4G, permitirá comenzar a desplegar la nueva tecnología.

La otra opción (2, donde la radio 5G es controlada directamente desde el nuevo Núcleo 5G -5GC-) es la visión a largo plazo del despliegue y permitirá usar todo el potencial de 5G debido a que hace uso de:

• La nueva radio (NR), que supondrá un uso más eficiente del espectro a la vez que proporciona muy baja latencia y conexiones más fiables.

• El Core 5G (5GC), que permitirá desplegar nuevos casos de uso como Network Slicing o Edge Computing

La reléase 16 del 3GPP representará la expansión del ecosistema móvil hacia nuevas áreas: nuevos casos de uso, nuevos tipos de dispositivos, nuevos modelos de negocio, nuevas bandas y tipos de espectro.

Otro punto importante será la evolución del servicio de voz en 5G, en Telefónica están migrando la voz desde la tecnología “legacy“ de circuitos a LTE (VoLTE). Cuando tengamos desplegado 5G, el servicio de voz podrá disfrutar de las nuevas capacidades de la nueva radio. Estas capacidades, conocidas como Voice over New Radio (VoNR), nos permitirán poder ofrecer servicios de voz con nuevos codecs HD y a través de nuevos medios (Virtual Reality, Augmented Reality, 4Kvideo…)

Vulnerabilidad en Universal Windows 10 Platform de Windows 10

Resultado de imagen para windows 10

Este nuevo error de seguridad podría permitir que desarrolladores maliciosos accedan a los archivos de los usuarios

Microsoft ha solucionado una vulnerabilidad en la actualización de Windows 10 de octubre de 2018 casi en secreto pues, acorde a expertos en ciberseguridad y forense digital del Instituto Internacional de Seguridad Cibernética, actualizaciones anteriores no informaba a los usuarios cuando las aplicaciones solicitaban permiso para acceder a todos los archivos de un usuario.

El error en la API ‘broadFileSystemAccess’ de Windows podría haber dado a un desarrollador malintencionado de Universal Windows Platform (UWP) acceso a todos los documentos, fotos, descargas y archivos de un usuario almacenados en OneDrive.

El incidente fue detectado por el experto en forense digital Sébastien Lachance, quien creó una aplicación empresarial que colapsó repentinamente en la actualización de Windows 10 de octubre de 2018, también conocida como Build 1809; esta versión de la actualización se encuentra actualmente en espera de que Microsoft finalice las pruebas de corrección del bug de pérdida de datos.

Regularmente, las aplicaciones UWP están restringidas a ciertas ubicaciones de carpetas, pero los desarrolladores también pueden solicitar acceso a otras ubicaciones, siempre que el usuario otorgue permiso a la aplicación.

Tal como Microsoft señala, la API broadFileSystemAccess brinda acceso a todos los archivos a los que un usuario tiene acceso. Microsoft promovió la función como una forma en que los desarrolladores pudieran hacer que sus aplicaciones UWP fueran más fáciles de usar.

“Esta es una capacidad restringida. En el primer uso, el sistema solicitará al usuario que permita el acceso. El acceso se puede configurar en Configuración> Privacidad> Sistema de archivos”, explica Microsoft. “Si envía una aplicación a la Tienda declarando esta capacidad, deberá proporcionar descripciones adicionales de por qué su aplicación requiere esta capacidad y cómo pretende usarla”.

El problema es que, hasta la versión 1809, los usuarios no recibían la solicitud de permiso y la API podía usarse para acceder al sistema de archivos completo.

Según Lachance, el diálogo está destinado a ser mostrado a un usuario en el primer uso de la aplicación. Microsoft reconoció que se trata de un problema de privacidad y, por lo tanto, desactiva el valor del sistema de archivos de acceso amplio.

Si a los usuarios les preocupa que una aplicación instalada haya obtenido un acceso a un margen de archivos más amplio que el predeterminado, los usuarios pueden limitar ese acceso en Configuración> Privacidad> Archivo.

Acorde a especialistas en forense digital, los desarrolladores que anteriormente utilizaron la API también pueden encontrar que sus aplicaciones UWP ahora se bloquean cuando los usuarios pasan a la versión 1809.

Bloquea estas urls en tu router y adiós anuncios en YouTube en tu TV o móvil 😉

45% de las grandes empresas en Latinoamérica sufrió una infección por malware en el último año

El mercado de la nube híbrida ahora es mucho más convincente


Gente de negocios tirando la cortina hacia las nubes

























Comencemos con la premisa básica de que la gran mayoría de las cargas de trabajo del mundo permanecen en centros de datos privados. Los proveedores de infraestructura en la nube están trabajando arduamente para cambiar esas cargas de trabajo, pero la tecnología siempre se mueve mucho más lentamente de lo que creemos. Esa es la lente a través de la cual operan muchas empresas de la nube.

La idea de que usted opera tanto en prem como en la nube con múltiples proveedores es la idea detrás de la noción de la nube híbrida. Es donde empresas como Microsoft, IBM, Dell y Oracle están apostando. Estas empresas de empresas muertas en la lana ven a sus grandes clientes desplazarse a la nube más lentamente de lo que imagina, y desean proporcionarles las herramientas y tecnologías para administrar en ambos mundos, al tiempo que les ayudan a cambiar cuando están. Listo.

La computación nativa de la nube se desarrolló en parte para proporcionar un único tejido de administración en la nube y la nube, lo que libera a la TI de tener dos conjuntos de herramientas y de alguna manera intenta salvar la brecha entre los dos mundos.
Lo que quiere todo proveedor de nube.

Red Hat- Ya sabes, la compañía que se vendió a IBM por $ 34 mil millones esta semana - ha operado en este mundo. Si bien la mayoría de la gente piensa que la compañía es la responsable de llevar Linux a la empresa, en los últimos años, ha ayudado a los clientes a gestionar esta transición y crear aplicaciones que podrían vivir en parte en la nube y en la nube.

Como ejemplo, ha construido OpenShift, su versión de Kubernetes. Como me dijo el CEO Jim Whitehurst el año pasado, “Nuestro producto más popular es OpenShift. La gente habla de contenedores y se olvidan de que es una característica de Linux ”, dijo. Ese es un sistema operativo sobre el que Red Hat sabe una cosa o dos.

Con Red Hat en el redil , IBM puede sostener que es de código abierto; pueden construir aplicaciones modernas sobre herramientas de código abierto y ejecutarlas en la nube de IBM o cualquiera de sus competidores, un enfoque híbrido real.

Microsoft tiene una gran ventaja aquí, por supuesto, porque ya tiene una presencia masiva en la empresa. Muchas compañías podrían ser descritas como tiendas de Microsoft, y para aquellas compañías que se mudan de Microsoft a la nube, Microsoft representa un desafío menos abrumador que empezar de cero.

Oráculo trae un valor similar con sus productos de base de datos central. Las empresas que usan bases de datos Oracle, casi todos, pueden encontrar más fácil trasladar esos datos valiosos a la nube de Oracle, aunque las cifras no sugieren que eso suceda necesariamente (y Oracle ha dejado de desglosarsus ingresos en la nube).

Dell, la cual gastó $ 67 mil millones para EMC , lo que hace que la compra de Red Hat sea pálida en comparación, ha estado tratando de reunir una solución híbrida mediante la combinación de hardware VMware, Pivotal y Dell / EMC.
Informes de proveedores en la nube

Podría argumentar que el híbrido es un estado temporal, que en algún momento, la gran mayoría de las cargas de trabajo eventualmente se ejecutarán en la nube y el negocio híbrido como lo conocemos hoy en día se reducirá continuamente con el tiempo. Ciertamente estamos viendo que los ingresos de la infraestructura de la nube se disparan sin signos de desaceleración a medida que más cargas de trabajo pasan a la nube.

En sus últimos informes de ganancias, aquellos que rompen esas cosas, los exitosos, informaron un crecimiento en su negocio de la nube. Es importante tener en cuenta que estas empresas definen los ingresos de la nube de diferentes maneras, pero se puede ver que la tendencia es definitivamente mejor:
AWS reportó ingresos de $ 6.7 mil millones en ingresos para el trimestre, en comparación con los $ 4.58 mil millones del año anterior.
Microsoft Intelligent Cloud, que incorpora productos como Azure, productos de servidor y servicios empresariales, tenía 8.600 millones de dólares, frente a los 6.900 millones de dólares.
IBM Technology Services y Cloud Platforms, que incluyen servicios de infraestructura, servicios de soporte técnico y software de integración reportaron ingresos de $ 8,6 mil millones, frente a los $ 8,5 mil millones del año anterior. Otros como Oracle y Google no rompieron sus ingresos en la nube.
Todo esto es para decir, hay mucho dinero en la mesa aquí y las empresas están moviendo más cargas de trabajo a un ritmo cada vez más rápido. También te habrás dado cuenta de que el crecimiento de IBM es plano en comparación con los demás. Ayer, en una llamada con analistas y periodistas, el CEO de IBM, Ginni Rometty, proyectó que los ingresos para la nube híbrida (como lo define) podrían llegar a $ 1 billón para 2020. Ya sea que ese número sea exagerado o no, hay claramente una cantidad significativa de negocios aquí , e IBM podría verlo como una salida a sus problemas de ingresos, especialmente si pueden aprovechar la consultoría / servicios junto con él.

Probablemente haya tanto negocio que haya espacio para más de un ganador, pero si usted preguntara antes del domingo si IBM tenía una oportunidad en esta mezcla contra sus formidables competidores, especialmente los nacidos en la nube como AWS y Google, probablemente no lo haría. Les he dado muchas oportunidades.

Cuando Red Hat finalmente une sus fuerzas con IBM, al menos les da a sus equipos de ventas un argumento convincente, uno que podría involucrarlos en la conversación, y probablemente esa es la razón por la que estaban dispuestos a gastar tanto dinero para conseguirlo. Los vuelve a poner en el juego, y después de años de lucha, eso es algo. Y en el proceso, ha impulsado el mercado de la nube híbrida de una manera que no habíamos visto venir la semana pasada antes de este acuerdo.

¿Cuánto valen tus datos en el mercado negro?

Convención de hackers en Estados Unidos. /Reuters

Por menos de mil euros se puede comprar la identidad digital de una persona. Kaspersky Lab alerta de los peligros que ocasiona el 'phising', las redes sociales y las contraseñas que usamos para loguearnos en alguna plataforma

Los episodios de Black Mirror se parecen cada vez menos a la ciencia ficción. De ahí que los encuentros sobre ciberseguridad tengan un cierto aroma a serie de plataforma de pago. Nos hablan de que nuestra seguridad está en riesgo. Al menos la 'online'. Porque ya son varias las semanas en las que se descubren diferentes hackeos informáticos que ponen en tela de juicio la seguridad en la Red - no hace falta irse demasiado lejos para asistir al error crítico de Facebook y otro por parte de Uber, que quiso ocultar el robo masivo de datos personales de sus usuarios. Al mismo tiempo vemos como nos cuentan que los hackers atacan nuestros recuerdos a través de artimañas digitales. Y uno ya no sabe si está bien poner como contraseña aquel día señalado o hace falta aventurarse con las mayúsculas y los símbolos.

Durante dos días se han reunido en Barcelona periodistas y expertos de distintas partes del planeta para debatir sobre las últimas investigaciones y futuras tendencias en seguridad, industia y tecnología en las jornadas anuales de Kaspersky Lab. Se trataron temas dispares como las amenazas que tenemos hoy en día a nuestra privacidad, los implantes de memoria en nuestro cerebro o el mercadeo de los datos personales de los usuarios en la 'dark web'. Y este parece ser un tema al alza. Porque todo tiene un precio. Los datos también. Y más cuando la mayoría ha perdido la cuenta ya de los sitios en los que ha marcado su contraseña. Así que actualmente la frase de la información es poder cobra aún más fuerza en un mundo hiperconectado y dependiente de las nuestras tecnologías.

Cada vez son más los hackers que ponen precio a los datos que se venden. Pero, ¿cuánto valen tus datos en el mercado negro? David Jacoby, analista senior de seguridad de Kaspersky Lab, explicó que el valor rondaría los tres dólares por persona si se trata de una cuenta de Facebook, Xbox o Netflix. El doble si lo que quieren es una de Spotify, y hasta diez dólares si hablamos de AirBnB. Las opciones gratuitas tampoco se libran de los hackeos ya que hacerse con la contraseña de un usuario de Skype cuesta poco más de medio dólar. Eso sí, los piratas aconsejan a sus compradores que no modifiquen los datos para que la persona afectada no se de cuenta de que hay otra usando su cuenta y anule la suscripción.

Las cuentas de servicios de pago 'online' son muy atractivas para los ciberdelincuentes. El precio se fija según el saldo que tenga en ese momento y por el que se puede llegar a pagar hasta 300 dólares para aquellas que cuenten con más de 5000 dólares.

La información que está a la venta 'online' se ofrece en paquetes distintos que van desde tarjetas obtenidas de forma aleatoria -en cuanto al banco y al tipo de documento- con el CVV2 -los tres dígitos que aparecen en la parte posterior y que son pedidos para terminar de hacer pagos online como medida de seguridad, hasta las que cuentan con muchos detalles de la persona y la tarjeta como el nombre, el DNI y la fecha de nacimiento. Los precios entre unas y otras pueden llegar a ser del doble, aunque los más caros ni siquiera alcanzan los 50 dólares.

¿Y cómo está sucediendo? Kaspersky alerta de los peligros que ocasiona el 'phising' -empleo de correos electrónicos que aparentemente provienen de fuentes fiables- las redes sociales y las contraseñas que usamos para loguearnos en alguna plataforma. Y es que la red está llena de información sobre nosotros. Se ha perdido el rastro de lo lejos que han viajado nuestros datos y muchas compañías tienen nuestros datos.

«Los piratas informáticos ponen el punto de mira en cualquier ciudadano. Tienen tanta influencia debido a nuestra estupidez», señala Jacoby. El experto se refiere a que nuestra confianza hace que caigamos en la trampa. El analista detalla que si tenemos un centenar de amigos y cada uno de ellos tiene otro centenar, la facilidad de explandir esa red de confianza. «La posibilidad de que hagas clic al enlace de un conocido es más alta que si lo recibes de cualquier otra persona», dice.

Un 'malware' siempre infecta un dispositivo porque el usuario cree que abre un fichero seguro, por lo que las ciberamenazas se entienden como un proceso de engaño. «Los ciberdelincuentes trabajan en factores psicológicos», añade.

Y volviendo al precio de los datos en la llamada red oscura, hace tan solo unos días la web Money Guru desarrollaba un extenso estudio en el que se detalla el valor de toda una identidad web. ¡850 euros! En el estudio se tuvieron en cuenta los 26 lugares donde más solemos iniciar sesión cuando estamos conectados de manera que haciéndose con los datos de estos servicios se pueda acceder al perfil completo de cualquier persona.

La investigación de Kaspersky Lab muestra que a los consumidores les importa el destino de su información. Al 88% le importa si sus datos son utilizados ilegalmente. El 57% se sentiría asustado o estresado si sus datos financieros personales se piratearan. Solo el 45% de los encuestados confía en que las grandes empresas cuiden sus datos y solo el 36% cree que sus datos están seguros en los sitios de redes sociales.

La empresa de seguridad informática advierte además de los riesgos de introducir la conectividad en nuestros hogares puesto que el lanzamiento de nuevos dispositivos tecnológicos suele traer «oleadas de intentos de ciberataques en busca de la vulnerabilidad».

En un informe reciente de Kaspersky Lab sobre IoT -Internet de las Cosas- en la primera mitad de 2018 este tipo de dispositivos fueron atacados con más de 120.000 alteraciones de 'malware'. Una suculenta vía de entrada a la ciberdelincuencia. Esto supone más del triple de la cantidad del año anterior. De ahí que la empresa de seguridad rusa advierte que el crecimiento vertiginoso de familias de 'malware' para dispositivos inteligente es una tendencia peligrosa iniciada el pasado año. 2017 también vio como el número de modificaciones de 'malware' para dispositivos inteligentes fue diez veces superior al de 2016.

Mensajes privados de 81,000 cuentas de Facebook hackeadas para la venta

Imagen de facebook


Los piratas informáticos parecen haber comprometido y publicado mensajes privados de al menos 81,000 cuentas de usuarios de Facebook.
Los perpetradores dijeron al Servicio Ruso de la BBC que tenían detalles de un total de 120 millones de cuentas, que intentaban vender, aunque existen razones para ser escépticos acerca de esa cifra.
Facebook dijo que su seguridad no había sido comprometida.
Y los datos probablemente se habían obtenido a través de extensiones de navegador maliciosas.
Facebook agregó que había tomado medidas para evitar que otras cuentas se vieran afectadas.
La BBC entiende que muchos de los usuarios cuyos detalles se han comprometido se encuentran en Ucrania y Rusia. Sin embargo, algunos son del Reino Unido, Estados Unidos, Brasil y otros lugares.
Los hackers ofrecieron vender el acceso por 10 centavos (8p) por cuenta. Sin embargo, su anuncio ha sido puesto fuera de línea.

"Hemos contactado a los fabricantes de navegadores para asegurarnos de que las extensiones maliciosas conocidas ya no estén disponibles para descargar en sus tiendas", dijo el ejecutivo de Facebook Guy Rosen.
"También nos hemos comunicado con la policía y hemos trabajado con las autoridades locales para eliminar el sitio web que muestra información de las cuentas de Facebook".
La violación apareció por primera vez en septiembre, cuando un mensaje de un usuario apodado FBSaler apareció en un foro de Internet en inglés.
"Vendemos información personal de los usuarios de Facebook. Nuestra base de datos incluye 120 millones de cuentas", escribió el usuario.

La empresa de seguridad cibernética Digital Shadows examinó la reclamación en nombre de la BBC y confirmó que más de 81,000 de los perfiles publicados en línea como muestra contenían mensajes privados.
Los datos de otras 176,000 cuentas también se pusieron a disposición, aunque parte de la información, incluidas las direcciones de correo electrónico y los números de teléfono, podría haber sido obtenida de miembros que no la habían ocultado.
El Servicio Ruso de la BBC contactó a cinco usuarios rusos de Facebook cuyos mensajes privados habían sido subidos y confirmó que las publicaciones eran suyas.

Un ejemplo incluyó fotografías de un día festivo reciente, otro fue una charla sobre un concierto reciente de Depeche Mode y un tercero incluyó quejas sobre un yerno.
Muestras de los datos fueron publicados en línea para atraer el interés.
También hubo una correspondencia íntima entre dos amantes.


Parece que uno de los sitios web donde se publicaron los datos se estableció en San Petersburgo.

Su dirección IP también ha sido marcada por el servicio Cybercrime Tracker. Dice que la dirección se había utilizado para difundir el troyano LokiBot, que permite a los atacantes obtener acceso a las contraseñas de los usuarios.
Asistentes de compras personales, aplicaciones de marcadores e incluso juegos de mini-rompecabezas se ofrecen desde varios navegadores como Chrome, Opera y Firefox como extensiones de terceros.

Los pequeños íconos se encuentran junto a la barra de direcciones URL esperando pacientemente a que hagas clic en ellos.
Según Facebook, fue una de esas extensiones que supervisó silenciosamente la actividad de las víctimas en la plataforma y envió detalles personales y conversaciones privadas a los piratas informáticos.
Facebook no ha nombrado las extensiones que cree que estaban involucradas, pero dice que la filtración no fue su culpa.
Expertos cibernéticos independientes le han dicho a la BBC que si las extensiones no autorizadas fueran la causa, los desarrolladores de los navegadores podrían compartir cierta responsabilidad por no examinar los programas, suponiendo que se distribuyeran a través de sus mercados.
Pero el hack sigue siendo una mala noticia para Facebook.

La red asediada ha tenido un año terrible para la seguridad de los datos y se preguntarán si es lo suficientemente proactiva para responder a situaciones como esta que afectan a un gran número de personas
El Servicio Ruso de la BBC envió por correo electrónico la dirección que figura junto con los detalles pirateados, haciéndose pasar por un comprador interesado en comprar los detalles de dos millones de cuentas.
Se preguntó al anunciante si las cuentas violadas eran las mismas que las involucradas en el escándalo de Cambridge Analytica o la violación de seguridad posterior revelada en septiembre.
Cuenta hackeada

Una respuesta en inglés vino de alguien que se hacía llamar John Smith.
Dijo que la información no tenía nada que ver con ninguna fuga de datos.
Afirmó que su grupo de piratería podía ofrecer datos de 120 millones de usuarios, de los cuales 2,7 millones eran rusos.
Pero Digital Shadows le dijo a la BBC que esta afirmación era dudosa porque era poco probable que Facebook se hubiera perdido una brecha tan grande.
John Smith no explicó por qué no había anunciado sus servicios más ampliamente
Y cuando se le preguntó si las filtraciones estaban vinculadas al estado ruso o a la Agencia de Investigación de Internet, un grupo de hackers vinculados al Kremlin, respondió: "No."

Gilat sí podra participar en concurso de redes regionales

Internet fijo

Cuando se lanzaron las bases para postular a las seis redes regionales de fibra óptica que se licitarán en diciembre, ProInversión estableció un tope: un operador solo podría manejar maximo seis de dichos proyectos. Hoy se han modificado las bases y se ha ampliado el número a siete.

Tal como se informó en su momento, este tope impedía que Gilat participara, pues ya había ganado seis regiones con anticipación. La medida se tomó considerando la sugerencia del MTC (Ministerio de Transportes y Comunicaciones), quien aseguró que los operadores deben terminar primero con las entregas pendientes antes de postular a nuevos concursos.

Como se recordará, ya se han licitado 15 redes, pero ninguna está operativa, pues han sufrido 83 adendas y se han retrasado casi tres años las entregas. Gilat es el operador que más redes regionales ha ganado (seis) lo cual compromete inversiones superiores a los US$540 millones
Proinversion

Osiptel, cuando se arrancó con las licitaciones de proyectos regionales en el 2015, fue el primero en sugerir un tope de siete redes para impedir una concentración perjudicial del mercado. En la actualidad, al cambiar las circunstancias por los retrasos en las entregas, MTC sugirió que el tope fuera solo seis redes.

Las modificaciones en el tope no son los únicos cambios en las bases, pues luego de recoger las sugerencias y consultas se han hecho otras variaciones. También se han hecho cambios (postergaciones) en las fechas de entrega de los sobres, pero no se ha modificado la fecha de cierre del concurso.

Trascendió que no habían sificientes postores interesados en los seis concursos en proceso para las regiones Ancash, Arequipa, La Libertad, Huánuco, Pasco y San Martín.

Gilat ha ganado hasta ahora seis proyectos, dos de los cuales están ahora bajo un juicio de amparo y sobre los que pesa una medida cautelar.

viernes, 2 de noviembre de 2018

Clientes de Movistar accederán a contenidos de Netflix desde este mes

En mayo pasado, la multinacional Telefónica cerró un acuerdo global con Netflix para integrar sus contenidos en su oferta de televisión. (Foto: Reuters)
La empresa operadora anunció el inicio de su alianza con Netflix en el Perú

Movistar anunció hoy el inicio de su alianza con Netflix en el Perú. Desde noviembre, los clientes de la empresa operadora podrán disfrutar de los contenidos de la plataforma streaming a través de Movistar Play y de los nuevos decodificadores Smart de Movistar TV.

Como se recuerda, en mayo pasado la multinacional Telefónica alcanzó una alianza global para integrar a Netflix en su oferta de televisión. Con esto, los clientes de sus plataformas de video y televisión iban acceder a todos los contenidos de la compañía de streaming.

El operador precisó que los clientes interesados en poder contar con el citado nuevo decodificador Smart de Movistar podrán adquirirlo a partir del 05 de noviembre.

"Queremos continuar entregando la mejor propuesta de contenidos de televisión y video del mercado a nuestros clientes, para disfrutarlo donde quieran y cuando quieran", dijo Luis Acuña, director de Marketing Residencial de Movistar Perú.

"La forma de ver televisión ha evolucionado y el entretenimiento tiene fortaleza en plataformas de Internet. Por ello, simplificamos la vida de nuestros clientes dando acceso a Netflix por medio de Movistar Play y de nuestros nuevos decodificadores", agregó.

En un comunicado, Movistar informó que sus clientes que cuenten con un servicio fijo y móvil postpago podrán acceder fácilmente a todas las series, películas y documentales de Netflix por medio de Movistar Play y de los nuevos decodificadores smart con conexión a Internet y disfrutar de las populares series como Stranger Things, La casa de papel y la recién estrenada Elite.

Cabe resaltar que Movistar Play, la multiplataforma de video en Internet sin costo, ya cuenta con más de un millón de clientes. A través de ella, los clientes de Movistar pueden acceder al mejor contenido en vivo, miles de películas, series, contenido infantil y contenido exclusivo de Movistar TV.

Asimismo, la app de Netflix aparecerá en el menú del decodificador conectado, en donde los clientes se pueden registrar si aún no tienen el servicio, o si ya cuentan con él pueden acceder al servicio con solo ingresar su usuario y contraseña.

Con el anuncio de hoy, Movistar se convierte en la primera Telco del país en ofrecer este servicio. Durante el resto del mes de noviembre, señalaron, se anunciarán más novedades sobre los beneficios de esta alianza.

Un ciberataque hace temblar los cimientos de la FIFA

infantino-pensativo-mundial2018-getty.jpg

Se avecinan días turbulentos para la mayor organización del fútbol mundial. La FIFA tendrá que afrontar en las próximas jornadas la publicación de información interna, cuyo alcance se desconoce, pero que ha generado una creciente preocupación en el organismo y que podría extenderse a la UEFA, según informa The New York Times.

El rotativo estadounidense desvela que la FIFA fue objeto de un segundo hackeo en 2018 (el primero fue en el mes de marzo), y que los datos filtrados llegaron a las manos de Football Leaks, que mediante un consorcio de medios de comunicación, European Investigative Collaboration (EIC), podría empezar a publicar diferentes informaciones a partir del viernes. Se trataría del mismo 'modus operandi' de la misteriosa organización en casos como el de las evasiones fiscales de diferentes estrellas de LaLiga o el de la acusación de violación que pende sobre Cristiano Ronaldo, ex del Real Madrid y actual jugador de la Juventus.

En los últimos meses, tanto Gianni Infantino, presidente de la FIFA, como otros directivos de la organización han sido objeto de preguntas de medios de comunicación acerca de documentación confidencial. Lo mismo ha sucedido en la UEFA, organismo que el suizo presidió hasta que dio el salto a la FIFA después del escándalo de corrupción que se llevó por delante a Joseph Blatter y sus 17 años de mandato.

La FIFA trató el asunto en la reunión de su Consejo, en Kigali, en la que sacó adelante su nuevo sistema para reformar el mercado de fichajes y se llevó un pequeño revés en su plan de desarrollar dos nuevas competiciones. El asunto preocupa.

Así lo reflejó un comunicado de la propia organización, lanzado este martes: "La FIFA condena cualquier intento de comprometer la confidencialidad, integridad y disponibilidad de datos en cualquier organización que utilice prácticas ilegales (...) Por supuesto, nos preocupa el hecho de que alguna información se haya obtenido de manera ilegal".

Infantino, que se defendía tras el Consejo de la FIFA ("Mi trabajo implica tener discusiones, tener conversaciones, intercambiar documentos, borradores, ideas, lo que sea, sobre muchos temas"), se esmera por mostrar tranquilidad: "Las preguntas que recibimos, las respondimos".

Solo falta por saber la decisión de publicación del European Investigative Collaboration.

lunes, 29 de octubre de 2018

IBM compra Red Hat, pero ¿cómo va a afectar esto a Linux?

 Red Hat Linux

Hace apenas una horas que ha saltado la noticia: IBM ha comprado Red Hat Enterprise, y eso es una novedad importantísima en el mundo tecnológico, sobre todo en lo relacionado con servicios para empresas, ya sea de servidores, almacenamiento en la nube y más.

Los 34.000 millones de dólares que ha pagado IBM transmiten a las claras una cosa: es una adquisición clave de cara al futuro de la compañía, pero ¿qué va a pasar con los proyectos que Red Hat ya tiene en marcha? Y sobre todo: ¿cómo va a afectar la compra al futuro de Linux?

Red Hat es una importante desarrolladora de software Open Source, con proyectos en varias áreas, además de una de las mayores contribuyentes al kernel de Linux. Que IBM se haya hecho con ella puede hacer cambiar muchas cosas o no cambiar nada.

Red Hat y Linux, una estrecha relación

Lo que aporta Red Hat a Linux queda claro cuando hemos mencionado su contribución al kernel, pero va mucho más allá. Es una de las empresas que apuesta más decididamente por este SO como el principal a la hora de prestar servicios.

Tienen su propia distro para empresas, Red Hat Enterprise Linux, y además prestan apoyo a Fedora, la sexta distribución de Linux más popular entre los usuarios.

La primera de estas dos distros seguramente seguirá existiendo bajo la tutela de IBM, pues es un producto rentable y necesario para seguir operando otros servicios ofrecidos por la compañía. El apoyo al desarrollo de Fedora aún está por ver si sobrevivirá.

Es cuestión de tiempo que sepamos qué va a ocurrir y qué piensa hacer IBM. Digamos que dar marcha atrás a todo lo que ha sido Red Hat hasta ahora no sólo iría contra el espíritu de la empresa, sino que también supondría revertir el sentido hacia el que se mueve el resto de la industria, como por ejemplo Microsoft, que recientemente ha convertido en Open Source miles de sus patentes.

Claro está que también puede tratarse de todo lo contrario: que IBM haya comprado Red Hat para apostar de forma mucho más decidida por el código abierto. Es el líder mundial y no tendría demasiado sentido hacer otra cosa.

A falta de comunicación oficial por parte de la empresa, esta última posibilidad es la más factible de todas. Por suerte pase lo que pase la comunidad Linux es lo suficientemente sólida como para cubrir cualquier eventualidad.

IBM compra Red Hat por 34.000 millones de dólares en un hito histórico para la empresa que triunfó con Linux y el Open Source

IBM compra Red Hat por 34.000 millones de dólares en un hito histórico para la empresa que triunfó con Linux y el Open Source

Muchos no entendían cómo se podía ganar dinero con el Open Source, pero Red Hat comenzó a demostrar que tenía muy claras las cosas cuando a mediados de los 90 comenzó a dedicar todos sus esfuerzos a dar servicios empresariales centrados en sus soluciones basadas en Linux.

Aquel camino la convirtió en la primera empresa de ese ámbito en lograr unos ingresos de 1.000 millones de dólares, pero su crecimiento gracias a sus soluciones en la nube, por ejemplo, la han convertido en una potencia absoluta en el mundo Open Source. En un acuerdo histórico IBM se hace con Red Hat por 34.000 millones de dólares, la mayor cantidad jamás pagada por una empresa software.

Un acuerdo histórico que deja clara la relevancia del Open Source

La empresa pasará a ser una unidad de la división Hybrid Cloud de IBM, y el CEO de Red Hat, Jim Whitehurst, pasará a formar parte del equipo directivo de IBM y estará solo por debajo del CEO de IBM, Ginni Rometty


Whitehurst Rometty
Jim Whitehurst, hasta ahora CEO de Red Hat, y Ginni Rometty, CEO de IBM


Como revelan en la CNBC, este es el tercer acuerdo tecnológico más importante en la historia de los Estados Unidos si excluimos la operación entre AOL y Time Warner: Dell y EMC completaron una operación por 67.000 millones de dólares en 2016, y en una operación más desconocida para los usuarios finales JDS Uniphase pagó 41.000 millones de dólares por SDL en el año 2.000 justo cuando explotaba la burbuja puntocom.

Esta es una operación que resulta especialmente llamativa por la tendencia que en los últimos tiempos parece haberse creado entorno a la adquisición de empresas Open Source.

Microsoft compró GitHub en junio de 2018 por 7.500 millones de dólares, y antes de eso Salesforce compró MuleSoft por 6.500 millones de dólares. ahora es IBM la que hace una inversión colosal en una empresa que desde hace años viene siendo referente absoluto en el mundo Linux y el Open Source.

Las soluciones de Red Ha, cuya capitalización de mercado se había situado en 20.500 millones de dólares antes del acuerdo, se utilizan especialmente en servidores, pero como revelaba el propio CEO de IBM, "la adquisición de Red Hat cambia las reglas del juego. Lo cambia todo en el mercado de la nube. IBM se convertirá en el proveedor de nubes híbridas número uno del mercado".
Redhat2

Entre sus muchas ofertas, Red Hat es la desarrolladora de OpenShift —una plataforma de computación en la nube—, además de trabajar activamente con OpenStack, un referente en el ámbito de la computación en la nube dirigido a ser aprovechado por centros de datos.

¿Seguirá siendo Red Hat la misma Red Hat de siempre?

El papel del Open Source lleva tiempo siendo fundamental en esas infraestructuras empresariales, y Red Hat ha logrado convertirse en uno de los grandes proveedores de soluciones del segmento incluso teniendo en cuenta soluciones propietarias. 

La adquisición se completará en la segunda mitad de 2019, y será interesante ver si IBM deja a Red Hat mantener su forma de trabajar con estas soluciones Open Source.

La firma de Jim Whitehurst vende servicios de formación y soporte, pero también participa de forma muy notable en el desarrollo tanto de estas soluciones como del kernel Linux: el famoso Linux Kernel Development Report en su edición de 2017 (PDF) mostraba cómo solo desarrolladores empleados por Intel contribuían más que los de Red Hat al código de esa parte fundamental del sistema operativo.

No solo eso: la distribución Linux Fedora sigue siendo una de las más valoradas en el mercado, y a la distribución comercial de Red Hat para empresas, RHEL (Red Hat Enterprise Linux) le hace sombra una distribución que desde hace años se alimenta del trabajo que Red Hat hace en RHEL —cuyo código se publica siguiendo la licencia Open Source— para ofrecerlo de forma más abierta: se trata de CentOS, que en 2014 acabó siendo patrocinado por la propia Red Hat.

¿Seguirán los responsables de IBM apostando por esos esfuerzos o el trabajo en otros proyectos como LibreOffice o incluso los controladores gráficos abiertos de las AMD Radeon o las NVIDIA (nouveau)? Esperemos que así sea, y como dicen algunas voces críticas tras el anuncio de la propia Red Hat en Twitter, "Podría ser peor, no es Oracle, así que...".

IBM no es desde luego Oracle —que compró Sun Microsystems y desmanteló todos sus proyectos Open Source—, y de hecho la empresa lleva años manteniendo una actitud cercana a la filosofía Open Source. Ahora queda por ver si esa apuesta se mantiene y se expande con esta adquisición.

4.000 suecos ya se han implantado un chip bajo la piel

Microchips
Vivimos tiempos contradictorios, en los que muchas personas temen por la pérdida de la privacidad por culpa del espionaje constante de las redes sociales y las empresas de Internet, y otras se insertan voluntariamente identificadores digitales en su cuerpo. La empresa Biohax ha anunciado que más de 4.000 personas en Suecia se han insertado un chip bajo la piel.
El chip se inserta entre los dedos pulgar e índice, mediante un pequeño corte y una inyección que inserta el chip (del tamaño de un grano de arroz) debajo de la piel. Puedes verlo en la foto de apertura. Es completamente biocompatible, no molesta ni produce ningún transtorno.
¿Y para qué sirve un chip insertado bajo la piel?

Chip bajo la piel 
El chip no tiene batería, asi que es pasivo, es decir, no emite ningún tipo de señal. Por tanto, no es rastreable. Tampoco tiene GPS ni ningún tipo de tecnología que permita vigilar a la persona que lo lleva. Sus creadores aseguran que es completamente privado.
Su contenido se lee mediante un escáner de radiofrecuencia RFID, que es compatible con la conexión NFC que llevan casi todos los móviles. Al apuntar con el lector al microchip recibe energía para activarse, y entonces el lector RFID puede leer su contenido.

Su función más practica es eliminar las llaves. Pueden abrir cerrojos electrónicos cuando acercas la mano, tanto en casa como en el trabajo (muchas empresas ya los usan). También sirven para pagar en máquinas expendedoras de comida, o para comprar billetes de metro o autobús, simplemente acercando la mano al lector.

A priori, estos chips bajo la piel son privados porque al no tener batería solo son detectables cuando estás a unos pocos centímetros del lector, y la información personal está encriptada. Pero aún así levantan sospechas porque podrían contener funciones ocultas, o ser hackeados.
Además, ya han surgido algunos problemas logísticos. Los primeros chips bajo la piel que se implantaron, hace tres años, se han quedado anticuados, y no se pueden actualizar. La única solución es recurrir a la cirugía (superficial) para extraerlos. e insertar la nueva versión.


Twitter eliminará el botón de Me gusta

Twitter
Si estás acostumbrado a cerrar una conversación en Twitter dándole al botón Me gusta, malas noticias: el CEO de la compañía ha anunciado que se eliminará esta opción próximamente, un cambio que puede tener serias consecuencias en esta red social.

Según Jack Dorsey, el objetivo es mejorar la calidad de la conversación. No se sabe exactamente qué quieren conseguir en la compañía con este cambio, aunque sí que tiene cierto sentido si tenemos en cuenta que últimamente los Likes y Retweet se muestran en el timeline del resto de usuarios. Cada vez hay menos diferencias entre ambos.

No se sabe cuándo se producirá esta novedad, una de las varias anunciadas por Twitter en los últimos meses, como por ejemplo la vuelta a timeline cronológico.

La deriva de Twitter ha sido duramente criticada por gran parte de sus usuarios, que cada vez están más disconformes con la calidad del contenido de la red social, habitualmente enfangada al completo en discusiones política, fake news y propaganda.

Además, el acoso selectivo, la pornografía infantil o la difusión del odio son otros tres problemas que Twitter no ha sabido atajar a tiempo, aunque sin duda deben estar trabajando en ello.

Eliminar los Me Gusta de Twitter puede tener consecuencias ciertamente limitadas, ya que simplemente pasarán a ser RT o comentarios, algo que tampoco beneficia demasiado a la calidad de la conversación, el objetivo según declaran fuentes de la empresas Telegraph.

Las dificultades de Twitter van más allá del contenido: monetizar su base de usuarios es mucho más complicado de lo normal porque las marcas saben qué tipo de usuario es el más activo en esta red.

domingo, 28 de octubre de 2018

¿Qué es Ping y en qué consiste?

Resultado de imagen para ping

Si te gusta el mundo de los videojuegos, probablemente habrás escuchado hablar del Ping. Pero, ¿sabes qué es o en qué consiste? Te lo contamos.
Ping es la abreviación de Packet Internet Grouper o Buscador o rastreador de paquetes de datos, y es una de las herramientas de diagnóstico más utilizadas en la administración de redes de todo el mundo.
Este nos permite verificar el estado de conexión de los ordenadores que forman parte de una red de computadoras.
Para entender cómo funciona el Ping, lo más sencillo es hablar de su origen. Y es que su creador, Mike Muuss, se inspiró en los submarinos y sónares, los cuales envían una señal sonora para detectar su hay algún obstáculo. Si esta vuelve, significa que hay algún cuerpo o barrera en la trayectoria de la señal emitida por el sónar.

Pues bien, para lograr su objetivo, el Ping envía paquetes de datos de un ordenador a otro y espera una respuesta. De esta forma, puede diagnosticar el estado completo de la conexión y su velocidad, es decir, el tiempo que ha tardado en ir y volver y si se han perdido datos por el camino. Cuanto menor sea el tiempo que registra el comando ping, mayor será la calidad de nuestra conexión… y menor su latencia.
Esto es especialmente importante en el sector de los videojuegos. Y es que el tiempo de reacción ante un determinado obstáculo o peligro puede suponer que sigas avanzando en el juego o que te eliminen.

También es interesante tenerlo en cuenta a la hora de visualizar o emitir contenidos en streaming o realizar videollamadas.

Así es como mejorará la búsqueda de archivos en Windows 10

Windows 10 October

La búsqueda de archivos en Windows 10 recibirá una revisión durante los próximos meses, que nos permitirá encontrar cualquier tipo de archivo en esta herramienta de búsqueda actualizada.
Tras la cantidad ingente de problemas que se han reportado en la actualización de octubre de Windows 10, parece que hay buenas noticias en el horizonte con la confirmación de una mejora en la herramienta de búsqueda del Windows 10 que ahora será capaz de indexar todas nuestras carpetas y archivos del disco duro, y no solo aquellos de las carpetas de documentos, imágenes, vídeos y escritorio.
Y es que la última versión preliminar de Windows 10 que están usando los usuarios del programa Insider incluye una nueva herramienta de búsqueda de archivos mediante la cual podremos encontrar cualquier documento o imagen que tengamos en el disco duro. Para ello debemos acceder a la nueva opción en la configuración de Windows que nos permite cambiar este estado de indexación en la búsqueda del sistema.

Para ello debes ir a los ajustes de Cortana, opciones de búsqueda, y seleccionar la opción de encontrar mis archivos seleccionando “mejorado”. Como hemos comentado solo está a prueba para aquellos usuarios que participan en el programa Insider, con lo que no podría estar disponible para todos hasta primeros de 2019.
Debes tener en cuenta que si activas la indexación mejorada el sistema se requerirá de un proceso mínimo de 15 minutos de configuración, con lo que te podría interesar activar esta opción siempre y cuando no tengas nada que hacer frente al ordenador durante los próximos minutos.

Esto es especialmente útil, dado que en general siempre utilizamos la herramienta de búsqueda de Windows 10 para encontrar algunos archivos, pero debido a que solo indexa las carpetas que te hemos comentado previamente, es incapaz de encontrar otros elementos que tenemos dentro del disco duro.

Qué es Arduino y por qué es tan interesante para aprender a programar

Qué es Arduino
No, nos referimos a Arduino de Ivrea, que fue Rey de Italia hace más de mil años. Nos referimos a una plataforma de hardware libre que sirve para casi todo. Si todavía te suena a chino esto de los que te estamos hablando, sigue leyendo, porque te vamos a explicar qué es Arduino y por qué es tan interesante para aprender a programar. Es posible que se te abra todo un mundo de posibilidades y esperamos que te animes a conocer más y a formar parte de la enorme comunidad que existe alrededor de esta fascinante herramienta.

Arduino es una plataforma de electrónica cuya principal característica es que pretende facilitar el uso de la electrónica en todo tipo de proyectos y se fundamenta en la filosofía del software libre y el código abierto. Se trata de una placa con un microcontrolador que se puede combinar con un amplio entorno de desarrollo. Pero esto te lo vamos a explicar más adelante.

La plataforma Arduino nació en Italia en el año 2005, en el Ivrea Interaction Design Institute como una herramienta para que los estudiantes sin conocimientos de electrónica y programación pudieran hacer prototipos rápidos. Y sí, se llama así en homenaje al rey del que hablábamos al principio.

Este invento pronto se extendió a una comunidad más amplia y se empezó a desarrollar rápidamente para adaptarse a nuevas necesidades, adaptándose a otras aplicaciones como la impresión 3D, el Internet de la Cosas, los dispositivos wearables o a entornos integrados. Todas las placas Arduino son de hardware libre, lo que significa que todos los usuarios pueden usarla y adaptarla a sus propias necesidades. El software también es de código abierto, lo que hace que crezca y mejore gracias a la contribución de usuarios de todo el mundo.

Las razones de su éxito global son su bajo coste (un kit básico cuesta unos 60 euros), la facilidad y accesibilidad para aprender a usar la herramienta y el sencillo desarrollo de su software que además permite crear proyectos que se pueden comercializar. A diferencia de un ordenador o incluso un teléfono móvil, la interacción con Arduino permite muchas más posibilidades, ya que su entorno de desarrollo, los interfaces de comunicación, interactúan con las alteraciones en el medio físico (temperatura, luz, etc) y las convierten en señales eléctricas que la máquina entiende.

Dicho de otra manera, le puedes decir a tu placa lo que quieres que haga enviándole al microcontrolador una serie de instrucciones. Los microcontroladores leen sobre los sensores y escriben sobre los actuadores.

Para programar con Arduino necesitarás una placa, unos sensores que “escuchan” lo que pasa fuera, el medio físico (entrada) y unos actuadores (salida) que convierten las señales eléctricas en magnitudes físicas que interactúan con el entorno.

Si unimos a todo esto la posibilidad de conectar cientos de sensores, shields o placas de expansión que complementan la funcionalidad del modelo de placa empleada, agregando circuitos y módulos de comunicación externos a la placa original, podremos conectar objetos a Internet, mover motores, e incluso interpretar reacciones químicas. Todo un mundo de posibilidades a tu alcance.

Necesitaremos utilizar el Software de Arduino IDE, que se puede descargar gratuitamente desde la propia página del proyecto. Se trata de un editor web muy intuitivo con un lenguaje de programación de alto nivel realmente sencillo de manejar en el que se puede programar online y guardar los proyectos en la nube. Arduino funciona en Windows, Mac y Linux.

El lenguaje de Arduino tiene una rápida curva de aprendizaje, tanto que cualquiera puede empezar a programar: artistas, niños o cualquiera que no tenga conocimientos previos de electrónica o programación. Esta es la clave: la sencillez y la accesibilidad permiten que se pueda iniciar cualquier tipo de proyecto, y a la vez es adecuada para experimentos científicos.

Aprender a usar el lenguaje de programación de Arduino, basado en Wiring, una plataforma desarrollada en 2003 en la tesis doctoral de Hernando Barragán, es relativamente fácil y hacerse con la máquina no cuesta demasiado. Esa era la idea de Barragán, que profesionales ajenos a la programación, como los artistas, pudieran aplicar la electrónica a sus proyectos. Solamente necesitarás algo de paciencia y tesón para empezar a avanzar.

Gracias a la accesibilidad de Arduino podemos desarrollar proyectos en ámbitos muy distintos, incluida la organización de las Smart Cities o el Internet de las cosas. Desde el Playground de Arduino puedes empezar a familiarizarte con el entorno, consultar y compartir dudas, investigar proyectos o descubrir trucos y consejos. Cualquiera de nosotros puede utilizar esta información para producir un nuevo dispositivo a partir de la modificación de un proyecto anterior.

La world wide web también está llena de blogs, tutoriales y proyectos libres con los que te puedes inspirar y ser capaz de crear, por ejemplo tu propia estación meteorológica o automatizar tu acuario. Durante sus trece años de vida Arduino ha dado vida a cientos de proyectos, no solo a nivel doméstico, también está en el alma de complejos instrumentos científicos.

La propia filosofía de la cultura libre ha favorecido la creación de una comunidad a nivel mundial en la que todos los usuarios pueden compartir sus proyectos. Con Arduino hemos visto cómo la filosofía del software libre se puede aplicar también al hardware y somos capaces de crear un pequeño ordenador a tu medida, un robot que puedes controlar con cualquier variable física que se te ocurra y compartirla con el mundo.